"Estos hallazgos aportan pruebas claras de que los datos recogidos en MTurk simplemente no pueden ser de fiar." Los investigadores llevan tiempo debatiendo si los datos de la encuesta Amazon Mechanical Turk (MTurk) pueden ser fiables. Este artículo adopta un enfoque sencillo para evaluar la calidad de los datos actualmente producidos por MTurk. El autor presenta a los encuestados pares de preguntas que son obviamente contradictorias. Por ejemplo: "Hablo mucho" y "Rara vez hablo." O: "Me gusta el orden" y "anhelo el caos." Si la gente está atenta, estar de acuerdo con uno debería significar discrepar del otro. Como mínimo, las dos respuestas no deberían ir juntas. La misma encuesta exacta se realiza en tres plataformas: Prolific, CloudResearch Connect y MTurk. En Prolific y Connect, las cosas se comportan con normalidad: la mayoría de los elementos contradictorios están correlacionados negativamente, tal y como predice el sentido común. En MTurk, sin embargo, los resultados son al revés. Más del 96% de estos pares de ítems claramente opuestos están positivamente correlacionados. En otras palabras, muchos encuestados dan respuestas similares a afirmaciones que literalmente se contradicen entre sí. Los autores intentan entonces lo que la mayoría de los investigadores harían a continuación: -restringir la muestra a trabajadores MTurk de "alta reputación" -aplicar las comprobaciones estándar de atención - lanzando a los rápidos de respuesta y a los de línea recta...