Información

¿Por qué es necesario el autoengaño para engañar mejor a los demás?

¿Por qué es necesario el autoengaño para engañar mejor a los demás?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Robert Trivers sostiene que nos engañamos a nosotros mismos para engañar mejor a los demás, en parte porque el autoengaño puede reducir las señales corporales inconscientes de mentir (von Hippel & Trivers, 2011).

En Wikipedia, el autoengaño es criticado por

... no poder explicar por qué la selección evolutiva para mentir permitiría que exista un lenguaje corporal que delata la mentira en lugar de simplemente seleccionar por falta de tales señales. (Ekman, 2006; Damasio, Evans & Cruse, 2004)…

¿Cuáles son los principales argumentos en contra de esta crítica?

Referencias

von Hippel, W. y Trivers, R. (2011). La evolución y psicología del autoengaño. Las ciencias del comportamiento y el cerebro, 34 (1), 1-56. https://doi.org/10.1017/S0140525X10001354

Ekman, P. (Ed.). (2006). Darwin y la expresión facial: un siglo de investigación en revisión. Ishk.

Damasio, A. R., Evans, D. y Cruse, P. (2004). Emoción, evolución y racionalidad. William James y la neurobiología moderna de la emoción, 3-14.


Lección 1: El autoengaño te hace pensar que las necesidades de otras personas no son muy importantes, lo que hace que las trates como objetos.

Imagina que estás sentado en un autobús con un asiento vacío a tu lado. ¿Está observando atentamente a los que le rodean con la esperanza de que nadie tome asiento?

Esta es una forma de autoengaño en la que valoras tu propia comodidad por encima de la de los demás. Y lo haces todo el tiempo sin darte cuenta.

Todos quieren e incluso merecen respeto. Toda nuestra sociedad, incluidas las leyes y constituciones, se basa en este hecho. Pero cuando se trata de interacciones cotidianas con los demás, este principio es fácil de olvidar.

Cuando estás atrapado en un engaño, no puedes ver con claridad. Estás "en la caja", como dicen los autores. Ves a los demás como meros objetos en lugar de los seres vivos que respiran que son. Lo que a menudo significa que no reciben el respeto que merecen de usted.

Este es el autoengaño en su esencia. Es la idea de que no ves a los demás como realmente son, sino como crees que son. Y la mayoría de las veces, lo que piensa de ellos se basa en suposiciones falsas de que sus necesidades son más importantes.

En otras palabras, con frecuencia se engaña pensando que los demás ni siquiera tienen necesidades en absoluto. Esta es una limitación severa de su cosmovisión. No solo limita la atención que otros reciben de usted, sino que también dificulta su progresión.


La verdad sobre el autoengaño

En teoría, la única persona a la que nunca deberíamos mentir es a nosotros mismos. ¿Seguramente mentirnos a nosotros mismos es contraproducente? ¿Como con calma y deliberadamente pegarse un tiro en el pie o tomar un tenedor de tostar caliente y clavárselo en el ojo?

Pero mire a su alrededor y no es difícil detectar los síntomas reveladores del autoengaño en otras personas. Entonces, ¿quizás también nos estamos engañando a nosotros mismos de maneras que no podemos percibir con claridad? ¿Pero es eso realmente posible y realmente creeríamos las mentiras que nosotros mismos & # 8216 & # 8217 dijimos & # 8217 de todos modos? Eso es lo que Quattrone & amp Tversky (1984) exploraron en un experimento clásico de psicología social publicado en la Revista de personalidad y psicología social.

Mentiras, malditas mentiras y psicólogos

Cualquier estudio sobre el autoengaño implicará una buena cantidad de mentiras descaradas, y la investigación de Quattrone & amp Tversky & # 8217s (1984) no fue diferente. Reclutaron a 38 estudiantes a los que se les dijo que iban a participar en un estudio sobre los & # 8220 aspectos psicológicos y médicos del atletismo & # 8221. No es cierto, de hecho, los investigadores iban a engañar a los participantes para que pensaran que el tiempo que podían sumergir los brazos en agua fría era un diagnóstico de su estado de salud, cuando en realidad mostraba cuán dispuestas están las personas a engañarse a sí mismas. Así es como lo hicieron.

En primer lugar, se pidió a los participantes que sumergieran los brazos en agua fría durante el mayor tiempo posible. El agua estaba bastante fría y la gente solo podía manejar esto durante 30 o 40 segundos. Luego, a los participantes se les asignaron otras tareas para hacerles pensar que realmente estaban involucrados en un estudio sobre atletismo. Se montaron en una bicicleta estática y se les dio una breve charla sobre la esperanza de vida y cómo se relacionaba con el tipo de corazón que tienes. Se les dijo que había dos tipos de corazón:

  • Corazón de tipo I: asociado con una salud más precaria, una esperanza de vida más corta y enfermedades del corazón.
  • Corazón tipo II: asociado con mejor salud, mayor esperanza de vida y bajo riesgo de enfermedad cardíaca.

A la mitad se le dijo que las personas con corazones de tipo II (aparentemente del tipo & # 8216better & # 8217) tenían una mayor tolerancia al agua fría después del ejercicio, mientras que a la otra mitad disminuido tolerancia al agua fría. Excepto, por supuesto, que todo esto eran mentiras inventadas para que los participantes pensaran que el tiempo que podían mantener el brazo bajo el agua era una medida de su salud, con la mitad pensando que la tolerancia al frío era una buena señal y la mitad pensando que era una mala señal.

Ahora es el momento de la prueba: los participantes tuvieron otra oportunidad de meter los brazos en el agua fría durante el mayor tiempo posible. El siguiente gráfico muestra los resultados promedio antes y después de todas las mentiras descaradas (¡en nombre de la ciencia, por supuesto!):

Como puede ver, la manipulación experimental tuvo un fuerte efecto. Las personas que pensaban que mantener los brazos bajo el agua durante más tiempo era una señal de un corazón sano, hicieron precisamente eso, mientras que aquellos que creían lo contrario de repente no pudieron aguantar el resfriado. Eso está muy bien, pero ¿estas personas realmente se estaban mintiendo a sí mismas o solo a los experimentadores y creyeron esas mentiras?

Anzuelo, línea y plomo

Después de la inmersión del brazo, se preguntó a cada participante si habían intencionalmente cambió la cantidad de tiempo que mantuvieron sus brazos bajo el agua. De los 38 participantes, 29 lo negaron y 9 confesaron, pero no directamente. Muchos de los 9 confesores afirmaron que el agua había cambiado de temperatura. No lo había hecho, por supuesto, esta era solo una forma de que las personas justificaran su comportamiento sin enfrentar directamente su autoengaño.

Luego se preguntó a todos los participantes si creían que tenían un corazón sano o no. De los 29 negadores, el 60% creía que tenía el tipo de corazón más saludable. Sin embargo, de los confesores solo el 20% pensaba que tenían el corazón más sano. Lo que esto sugiere es que los negadores eran más propensos a engañarse realmente a sí mismos y no solo a tratar de encubrir su engaño. Realmente pensaron que la prueba les decía que tenían un corazón sano. Mientras tanto, los confesores intentaron mentir al experimentador (¡parece justo!), Pero en privado la mayoría reconoció que se estaban engañando a sí mismos.

Este experimento es ingenioso porque muestra las diferentes gradaciones del autoengaño, hasta su forma más pura, en la que las personas logran engañarse a sí mismas con anzuelo, línea y plomada. En este nivel, las personas piensan y actúan como si su creencia incorrecta fuera completamente cierta, ignorando por completo cualquier indicio de la realidad.

Entonces, lo que sugiere este estudio es que, para muchas personas, el autoengaño es tan fácil como un pastel. Muchas personas no solo se mentirán felizmente a sí mismas si se les da una razón, sino que solo buscarán evidencia que confirme su reconfortante autoengaño, y luego creerán totalmente en las mentiras que se están diciendo a sí mismos.


Historia y antecedentes del autoengaño

Debido a que el inconsciente parece estar involucrado, el autoengaño a menudo se discute en el contexto de la famosa teoría psicoanalítica de Sigmund Freud. En lugar de ser uno de los mecanismos de defensa tradicionales, se cree que el autoengaño es un componente necesario de todos los mecanismos de defensa. Cada uno tiene el elemento paradójico señalado anteriormente: debe haber al menos un momento de autoengaño para que funcione un mecanismo de defensa. Aquellos lectores familiarizados con defensas como la proyección, la intelectualización y la represión comprenderán que, en cada caso, una persona tiene que ser tanto inconsciente como hiperconsciente de la información perturbadora.

La teoría psicoanalítica es pesimista acerca de su capacidad para reconocer el autoengaño en sí mismo. Esa conclusión es probablemente demasiado severa: una persona debería poder reconocer su propio autoengaño en algún momento después de que ocurra, cuando la persona se haya calmado y tenga una perspectiva más objetiva sobre el tema.


Estudio 1: La decadencia del autoengaño

El estudio 1 examina hasta qué punto persiste el autoengaño a pesar de la repetida evidencia en contra de una autoestima deseada. Los participantes completaron una batería de cuatro pruebas de conocimiento general, prediciendo su puntaje antes de las últimas tres. Algunos participantes & # x02014los en la condición de respuestas & # x02014 tenían acceso a una clave de respuestas para la Prueba 1, y esperábamos que la usaran para hacer trampa (evidenciado al superar a un grupo de control sin respuestas). También esperábamos que sus puntuaciones altas desencadenaran el autoengaño, lo que los llevaría a predecir en exceso sus puntuaciones en pruebas posteriores para las que no tenían claves de respuesta. El desempeño en estas pruebas posteriores ofreció pruebas repetidas de la capacidad real de los participantes. Evaluamos hasta qué punto las predicciones infladas de los participantes que recibieron las respuestas de la Prueba 1 se verían atenuadas por su experiencia posterior al realizar pruebas sin las respuestas, con la hipótesis de que sus predicciones eventualmente, pero no inmediatamente, convergerían con su verdadera capacidad. Investigaciones anteriores han mostrado el autoengaño en este paradigma seguido con participantes & # x02019 inclinación crónica al autoengaño (Chance et al., 2011), y esperábamos que el deterioro del autoengaño aquí estaría relacionado con el autoengaño crónico como bien. Planteamos la hipótesis de que para los participantes en la condición de respuestas, el autoengaño sería mayor y persistiría por más tiempo para aquellos que tenían una disposición alta en autoengaño. Además, el uso de una escala relacionada con el engaño de otros en combinación con la escala de autoengaño nos permitió probar si las brechas de predicción estaban realmente correlacionadas con el autoengaño y no con la mentira.

Dado que el diseño de estos estudios de autoengaño hace que el engaño sea ambiguo & # x02014 intencionalmente, para hacer posible el autoengaño & # x02014, realizamos un estudio piloto para probar si el uso de la clave de respuestas constituía realmente una trampa. Según la definición de Jones (1991) de comportamiento no ético, los miembros de la comunidad, en lugar de los investigadores o participantes a los que se les da la oportunidad de hacer trampa, son los jueces apropiados de qué comportamientos constituyen trampa. Sesenta y cinco participantes de Amazon & # x02019s Mechanical Turk leyeron una descripción de nuestro paradigma de investigación experimental, incluidas las instrucciones para los participantes, aprendieron los resultados y se les pidió que escribieran cuatro palabras que describieran a los examinados. En sus respuestas abiertas, & # x0201Chaating & # x0201D fue la segunda respuesta abierta más común (15 personas), después de & # x0201Cdishonest & # x0201D (22 personas) El 86% usó las palabras & # x0201Chaating, & # x0201D & # x0201Cdishonest, & # x0201D & # x0201Cunethical, & # x0201D o sinónimos de estas palabras. Los participantes también calificaron hasta qué punto consideraban que este comportamiento constituía trampa, en una escala de 10 puntos (1: definitivamente no estoy haciendo trampa al 10: definitivamente engañando). La respuesta media fue 6,98 (DE = 2,86), con una respuesta modal de & # x0201C10. & # X0201D Otro grupo de 64 participantes leyó sobre los participantes en la condición de control e indicó en la misma escala si ese grupo estaba engañando a la respuesta media. fue 2.50 (SD = 2.63) la respuesta modal fue & # x0201C1 & # x0201D (definitivamente no es trampa). Estos resultados sugieren que las personas juzgan el comportamiento de los participantes del estudio en la condición de respuestas que obtienen puntuaciones más altas como poco ético, de modo que & # x0201Chaating & # x0201D es un descriptor apropiado de su comportamiento. Los tramposos no necesitan percibirse a sí mismos como tramposos & # x02014 de hecho, pueden engañarse a sí mismos.

Materiales y métodos

Participantes

Setenta y un estudiantes y miembros de la comunidad participantes (33 hombres, METROla edad = 23,9, SD = 3,54) del grupo de sujetos pagados de una gran universidad del noreste se les pagó $ 20 para completar este experimento como el primero de una serie de estudios no relacionados durante una sesión de laboratorio grupal de 1 hora. Los participantes también tuvieron la oportunidad de ganar un pago de bonificación basado en el desempeño. El tamaño de la muestra se determinó según la capacidad del laboratorio y los separadores de privacidad separaban a los participantes entre sí.

Diseño y procedimiento

A cada participante se le asignó la condición de control o de respuesta. Ambos grupos completaron una serie de cuatro pruebas de trivia de conocimientos generales, como & # x0201C ¿Cuál es el único mamífero que realmente vuela? & # X0201D (Moore y Healy, 2008), configuradas en cuatro pruebas de 10 preguntas. Los participantes aprendieron al comienzo del estudio que en las cuatro pruebas, obtendrían un

Discusión General

Uno podría esperar que las personas que hacen trampa en las pruebas & # x02014 o los traders de información privilegiada & # x02014 se sientan peor acerca de sus habilidades como resultado de su comportamiento cuestionable. Después de todo, si hubieran tenido más talento, no habrían tenido motivos para hacer trampa. Sin embargo, cuando el autoengaño es posible, la ética puede desvanecerse (Tenbrunsel y Messick, 2004). Las personas tienden a enfocarse en el resultado positivo de su engaño y descuidan el desagradable proceso que los condujo.

Aunque el constructo del autoengaño tiene una larga historia en psicología, la naturaleza del proceso mediante el cual tiene lugar el autoengaño sigue siendo objeto de debate (Audi, 1997 Mele, 2010 Bandura, 2011 McKay et al., 2011 von Hippel y Trivers, 2011). En estos dos estudios, mostramos que aunque el autoengaño ocurre rápidamente, hay cierto deterioro con el tiempo, lo que sugiere que el autoengaño puede proporcionar un impulso temporal al autoconcepto, pero que estos impulsos pueden ser relativamente breves si se reciben comentarios correctivos. del medio ambiente (Estudio 1). Además, el Estudio 2 demuestra que la sensibilidad a la retroalimentación depende de la medida en que permite el autoengaño. La retroalimentación que refuerza las creencias motivadas en habilidades superiores parece tener más peso que la retroalimentación sobre las habilidades reales. Como resultado, parece que las personas son vulnerables al autoengaño en serie, esperando oportunidades para inflar sus opiniones personales y solo ajustándolas a la baja a regañadientes. El estudio 1 demuestra que las predicciones infladas de rendimiento posterior en el grupo de respuestas se correlacionan con la mejora general del autoengaño, y han sugerido que estos resultados sugieren que los participantes incurren en errores de calibración autoengañosos. La investigación futura podría eliminar la ambigüedad del autoengaño total del error de calibración general comparando las predicciones de los puntajes propios con las predicciones de los puntajes de otros & # x02019, permitiendo una evaluación de si las personas demuestran un error de calibración autoengañoso solo cuando son el actor principal, o si incluso la observación de otros induce mala calibración.

En nuestros estudios, exploramos el autoengaño utilizando un conjunto específico de tareas similares a situaciones de prueba en las que los estudiantes podrían tener la oportunidad de hacer trampa. Aunque nuestro enfoque fue el impacto del autoengaño en las creencias de las personas sobre su desempeño futuro, el autoengaño en contextos similares también podría afectar el comportamiento posterior. Por ejemplo, podría llevar a los estudiantes a dedicar menos tiempo a prepararse para exámenes futuros, reduciendo así su aprendizaje y obstaculizando su desempeño futuro. También podría aumentar la probabilidad de volver a hacer trampa, al permitir que las personas se sientan bien consigo mismas y con sus habilidades cuando hacen trampa (y luego se engañan a sí mismas). Se necesitan investigaciones futuras para examinar estas consecuencias conductuales negativas del autoengaño, no solo en el contexto de las trampas académicas, sino también en las muchas situaciones en las que las personas inflan su desempeño haciendo trampas y luego se engañan a sí mismas acerca de por qué lo hicieron tan bien.

.25 de bonificación por cada respuesta correcta. Este incentivo fomenta el engaño, que es necesario para el autoengaño en este paradigma, aunque no siempre es necesario un incentivo monetario para provocar el engaño y el autoengaño (Chance et al., 2011).

Para la Prueba 1, los participantes en la condición de respuestas tenían las respuestas a las diez preguntas impresas en una clave de respuestas en la parte inferior de la página. Sus instrucciones dicen, & # x0201CIt & # x02019 está bien para verificar sus respuestas sobre la marcha, pero por favor haga su propio trabajo. & # X0201D Estas instrucciones eran intencionalmente ambiguas & # x02014 no prohibían mirar las respuestas, pero implicaban que usar el La clave de respuesta para elegir las respuestas sería incorrecta. El grupo de control completó las mismas preguntas de la prueba pero sin la clave de respuestas ni las instrucciones. A todos los participantes se les dio 3 minutos para completar la Prueba 1. Después de entregar la Prueba 1 completa a un experimentador, se les dio una hoja de puntuación con una clave de respuestas, en la que registraron de memoria qué preguntas habían respondido correctamente. Este procedimiento impidió que los participantes del grupo de control usaran la clave de respuestas para cambiar sus respuestas. No impidió que ninguno de los grupos inflara su puntuación informada, por lo que también registramos la puntuación real. Después de completar y entregar la hoja de puntuación, los participantes en ambas condiciones habían visto las respuestas de la Prueba 1 y conocían sus puntuaciones de la Prueba 1.

Cuando los participantes recibieron la Prueba 2, se les pidió que la revisaran antes de escribir la puntuación prevista. La vista previa aseguró que aquellos en el grupo de respuestas pudieran confirmar que la prueba no incluiría una clave de respuestas. También redujo la admisión implícita de culpa que podría estar asociada con la predicción de una puntuación más baja en la segunda prueba que en la primera (& # x0201C si digo que lo haré peor, los investigadores sabrán que hice trampa & # x0201D), al darles a los participantes una calificación válida. excusa (& # x0201CI simplemente no & # x02019t no conoces estas respuestas en particular & # x0201D). Por lo tanto, este diseño proporcionó una prueba sólida de nuestra predicción de que los participantes que habían hecho trampa en la primera prueba se engañarían a sí mismos para predecir una puntuación irrealmente alta en la segunda.

Después de predecir su puntaje, los participantes pasaron 3 minutos completando la Prueba 2, luego repitieron el proceso tres veces más: calificando la Prueba 2 en una hoja de respuestas separada mirando la Prueba 3 y haciendo una predicción calificando la Prueba 3 en una hoja de respuestas separada revisando la Prueba 4 y hacer una predicción y calificar la Prueba 4 en una hoja de respuestas separada. Tenga en cuenta que para todos los participantes, las pruebas 2, 3 y 4 no incluyeron las respuestas en la parte inferior y los participantes solo tenían una hoja frente a ellos (ya sea una hoja de prueba / predicción o una clave de respuestas / hoja de puntuación) en todo momento.

Cuando los participantes terminaron el procedimiento de prueba, pasaron a otros estudios no relacionados que también incluían el Inventario equilibrado de respuestas deseables (Paulhus, 1998). Usamos el mejoramiento autoengañoso y los componentes de manejo de impresiones del BIDR, para distinguir el autoengaño disposicional de la mentira disposicional. Al final de la sesión de estudio, los participantes recibieron su pago de bonificación. Debido a que los participantes no fueron engañados (por los experimentadores), el Comité de Sujetos Humanos de la universidad que aprobó el experimento determinó que no se requería un interrogatorio.

Resultados y discusión

Infiel

Predijimos que los participantes en la condición de respuestas inflarían su desempeño en la primera prueba al mirar las respuestas. De hecho, informaron obtener una puntuación más alta que el grupo de control, t(69) = 6.62, pag & # x0003C 0,001, D = 1,58 (Tabla 1). Nuestros análisis posteriores reflejan puntajes informados, ya que el autoengaño se basa en creencias; sin embargo, el uso de puntajes reales aquí o en cualquiera de los análisis posteriores no afectó la dirección o la importancia de los resultados.

Tabla 1. Puntuaciones y predicciones del estudio 1.

En la prueba en la que era posible hacer trampa, el puntaje promedio fue de 7.89 sobre 10, lo que indica una mezcla de tramposos y no tramposos, muchas personas que hacen trampa solo un poco, o ambos. Mientras que ningún participante en la condición de control informó puntuaciones perfectas (a & # x0201C10 & # x0201D) en la Prueba 1, el 44% de los participantes en la condición de respuestas sí lo hizo. Sin embargo, incluso excluyendo las puntuaciones perfectas, las puntuaciones de la Prueba 1 fueron más altas en las respuestas que en la condición de control (6,20 frente a 4,51). Esto sugiere que muchas personas hacen un poco de trampa, de acuerdo con Mazar et al. (2008) teoría del mantenimiento del autoconcepto, que postula que las personas evitan las auto-señales negativas haciendo trampa solo dentro de un rango aceptable.

Autoengaño conductual

Esperábamos que si los participantes en la condición de respuestas se engañaban a sí mismos, sus predicciones para las pruebas posteriores serían más altas que sus puntajes reales, esperábamos que esta brecha fuera más alta en la Prueba 2 & # x02014 inmediatamente después de que los participantes hubieran hecho trampa para lograr una puntuación alta en la Prueba 1 & # x02014 y disminuir con el tiempo. No esperábamos que los participantes en la condición de control & # x02014quienes no tuvieron la oportunidad de hacer trampa & # x02014 mostraran una brecha entre sus predicciones y el rendimiento real en las Pruebas 2 a 4.

Un emparejado t-La prueba confirmó que las predicciones de la Prueba 2 excedieron las puntuaciones de la Prueba 2 para los participantes en la condición de respuestas, t(35) = 3.67, pag = 0.001, D = 0,73 (Tabla 1) que refleja el autoengaño: a pesar de haber tenido la oportunidad de examinar las preguntas de la Prueba 2 y confirmar que no se incluyeron respuestas, los participantes del grupo de respuestas esperaban tener un mejor desempeño que ellos. Sus puntuaciones sorprendentemente bajas en la Prueba 2 no eliminaron su autoengaño: sus predicciones para la Prueba 3 también fueron significativamente más altas que las puntuaciones de la Prueba 3, t(35) = 2.52, pag = 0.02, D = 0,35 (Tabla 1). Solo después de obtener una puntuación por debajo de sus expectativas en las pruebas 2 y 3, el autoengaño decayó por completo: las predicciones para la prueba 4 no fueron significativamente más altas que las puntuaciones reales, t(35) = 1.13, pag = 0.27, D = 0,20 (Tabla 1).

Por el contrario, las predicciones no difirieron significativamente de las puntuaciones de los participantes del grupo de control en ninguna de las tres pruebas: Prueba 2 [t(34) = 1.36, pag = 0,18], Prueba 3 [t(34) = 0.95, pag = 0.35], Prueba 4 [t(34) = 0.67, pag = 0,51] (Tabla 1). La falta de predicción excesiva en el grupo de control también indica que las predicciones infladas de los participantes en la condición de respuestas no están relacionadas con un mero exceso de confianza: el exceso de confianza sugeriría que las personas generalmente inflan sus predicciones (Moore y Healy, 2008), pero este patrón no se observó.

Autoengaño disposicional

También exploramos si la tendencia general al autoengaño se relacionaría con la disminución de las brechas observadas en la predicción y el rendimiento. La mejora autoengañosa se correlacionó de hecho con las predicciones excesivas en la segunda prueba (r = 0.40, pag = 0.02) en la condición de respuestas, pero no en la condición de control (pag = 0,79). Una división de la mediana en el Mejoramiento autoengañoso reveló que los autoengaños altos estaban impulsando las predicciones autoengañosas observadas en el grupo de respuestas, y que su sesgo era fuerte incluso en las predicciones para la Prueba 3. Los autoengañadores altos predecían significativamente en exceso sus puntajes en la Prueba 2 [6,58 frente a 4,84, t(18) = 3.07, pag = 0.007, D = 0,93], así como la Prueba 3 [5,95 frente a 4,95, t(18) = 2.73, pag = 0.01, D = 0,57], pero con el tiempo incluso este grupo modificó sus expectativas para ajustarse a la realidad, prediciendo con mayor precisión sus puntuaciones en la Prueba 4 [5,74 frente a 5,11, t(18) = 1.23, pag = 0,24]. Los autoengañadores bajos en el grupo de respuestas, por otro lado, no mostraron diferencias significativas entre ninguna de sus predicciones y las puntuaciones posteriores (todas pag& # x02019s & # x0003E 0.10). Este patrón de resultados se muestra en la Figura 1. Como se esperaba, la Gestión de impresiones no mostró una relación significativa con las predicciones excesivas ni en las respuestas ni en el grupo de control (todos pag& # x02019s & # x0003E 0.10), lo que sugiere que la predicción excesiva observada aquí no se deriva meramente de una estrategia para impresionar a otros, como los experimentadores. Para el grupo de respuestas, también comparamos el Mejoramiento autoengañoso de aquellos que reportaron puntajes perfectos (probables tramposos) con aquellos que obtuvieron puntajes más bajos, aunque el tamaño de la muestra fue pequeño y la diferencia observada no fue significativa, aquellos que reportaron puntajes perfectos mostraron un Mejoramiento autoengañoso direccionalmente más alto [ 7.19 frente a 6.20, t(34) = 0.64, pag = 0,52]. Tenga en cuenta que el autoengaño observado aquí no está completo: los participantes en la condición de respuestas predicen puntajes más bajos en la Prueba 2 que los que recibieron en la Prueba 1. Estos resultados sugieren que en lugar de presenciar un autoengaño completo, observamos una mala calibración autoengañosa que luego disminuye aún más frente a la retroalimentación.

Figura 1. Predicciones excesivas en las pruebas 2-4 por autoengañadores altos y bajos en el Estudio 1.

Estos resultados demuestran que los autoengañadores llegan a un acuerdo con la realidad solo cuando se enfrentan a una exposición repetida a pruebas contrarias a sus creencias preferidas & # x02014 para estos participantes, obteniendo puntuaciones más bajas en múltiples pruebas en las que no podían engañar & # x02014 y lo hacen eventualmente en lugar de hacerlo inmediatamente. Este patrón es más sorprendente para aquellos con una tendencia disposicional hacia la superación personal.


El poder del autoengaño: por qué y cómo nos engañan nuestros cerebros

Sesos. ¿Dónde estaríamos sin ellos? Controlan nuestro pensamiento, habla, sentimientos, vista y oído. Crean y almacenan nuestros recuerdos. Controlan nuestra respiración y nos permiten caminar sin caernos. Nuestros cerebros son muy útiles y en su mayoría confiables, ¿o no?

Fans del programa de radio pública y podcast Cerebro oculto han llegado a valorar el concepto central del programa, que los patrones inconscientes impulsan el comportamiento humano, para bien o para mal. El presentador Shankar Vedantam ha convertido el trabajo de su vida en ayudar a una amplia audiencia a comprender esas dinámicas.

El nuevo libro de Vedantam, en coautoría con Bill Mesler, es "Delirios útiles: el poder y la paradoja del cerebro que se engaña a sí mismo". El trabajo explora las formas en que la evolución diseñó nuestro cerebro para sobrevivir, no para buscar la verdad, y cómo las mentiras que nos contamos nos sostienen y nuestras relaciones con otras personas y el mundo. Como escriben los autores, nuestro autoengaño "nos permite lograr metas sociales, psicológicas o biológicas útiles".

Esta conversación toca muchos temas oportunos, como por qué los hechos pueden ser poco convincentes para muchas personas y por qué nuestro mejor enfoque para enmendar las divisiones y los malos comportamientos puede ser la indagación, la bondad y la compasión.

Shankar Vedantam es autor, corresponsal científico y presentador de Hidden Brain. Ross Reynolds de KUOW lo entrevistó el 13 de abril de 2021. Town Hall Seattle presentó su conversación.


Investigación sobre la prevalencia y los propósitos del engaño

Solo en los últimos años se ha realizado una investigación sistemática para comprender con qué frecuencia y por qué los individuos engañan a otros. Este trabajo ha llevado a una conclusión importante: todo el mundo miente. La evidencia más directa de esto ha sido realizada por Bella DePaulo y sus colegas. Usando métodos de investigación de encuestas y diarios, han descubierto que la inmensa mayoría de las personas (aproximadamente el 99,5%) informan mentir a diario, describiendo voluntariamente en detalle un promedio de aproximadamente 1 a 2 mentiras verbales explícitas por día. Las mentiras más comúnmente reportadas involucran la tergiversación de los sentimientos y opiniones de uno & # 8217s (por ejemplo, decirle a su abuela que le gusta el suéter pasado de moda que le dio) y proporcionar información falsa sobre las acciones, planes y paradero de uno & # 8217s ( por ejemplo, informar que estaba en la biblioteca estudiando cuando en realidad estaba en el bar). Las mentiras menos frecuentes, pero aún comunes, se refieren a engañar a otros sobre el conocimiento o los logros de uno y # 8217 (por ejemplo, mentir sobre el historial académico de uno y # 8217), proporcionar razones ficticias o explicaciones de las acciones tomadas (por ejemplo, culpar a los problemas con la computadora por el trabajo tardío que en realidad es resultado de la postergación) y mentiras sobre hechos y posesiones (p. ej., afirmar no tener dinero para prestarle a un amigo). Las razones comúnmente reportadas para mentir incluyen evitar la vergüenza, causar una impresión favorable en los demás, ocultar sentimientos o reacciones reales, evitar el castigo o situaciones aversivas y no herir los sentimientos de los demás (a menudo llamadas mentiras altruistas).


7. Autoengaño colectivo

El autoengaño colectivo ha recibido escasa atención filosófica directa en comparación con su contraparte individual. El autoengaño colectivo puede referirse simplemente a un grupo de individuos igualmente autoengañados oa una entidad grupal, como una corporación, comité, jurado o similares, que se autoengaña. Estas alternativas reflejan dos perspectivas básicas que los epistemólogos sociales han asumido en las adscripciones de actitudes proposicionales a los colectivos. Por un lado, tales atribuciones podrían tomarse sumativamente simplemente como una forma indirecta de atribuir esos estados a los miembros del colectivo (Quinton 1975/1976). Esta comprensión sumativa, entonces, considera que las actitudes atribuidas a los grupos no son más que metáforas que expresan la suma de las actitudes de sus miembros. Decir que los estudiantes piensan que la matrícula es demasiado alta es solo una forma de decir que la mayoría de los estudiantes piensan que sí. Por otro lado, tales atribuciones podrían entenderse no sumativamente como aplicados a entidades colectivas, ontológicamente distintas de los miembros de los que dependen. Estos llamados "sujetos plurales" (Gilbert 1989, 1994, 2005) o "integrados quosociales" (Pettit 2003), aunque sobrevengan a los individuos que los componen, pueden muy bien expresar actitudes que divergen de los miembros individuales. Por ejemplo, decir que la NASA creía que las juntas tóricas del transbordador espacial y los cohetes impulsores rsquos eran seguras no implica necesariamente que la mayoría o todos los miembros de estas organizaciones tuvieran personalmente esta creencia, solo que la institución misma lo hizo. El entendimiento no sumativo, entonces, considera que los colectivos son, como personas, blancos aptos para atribuciones de actitudes proposicionales y potencialmente también de censura moral y epistémica. Siguiendo esta distinción, el autoengaño colectivo puede entenderse en un sentido sumativo o no sumativo.

En el sentido sumativo, el autoengaño colectivo se refiere a la creencia autoengañosa compartida por un grupo de individuos, cada uno de los cuales llega a sostener la creencia autoengañosa por razones similares y por medios similares, variando según el relato del autoengaño seguido. . Podríamos llamar a esto autoengaño a través de un colectivo. En el sentido no sumativo, el sujeto del autoengaño colectivo es el colectivo mismo, no simplemente los individuos que lo componen. Las siguientes secciones ofrecen una descripción general de estas formas de autoengaño colectivo, señalando los importantes desafíos que plantea cada una.

7.1 Autoengaño colectivo sumativo: Autoengaño a través de un colectivo

Entendido de manera sumativa, podríamos definir el autoengaño colectivo como la celebración de una creencia falsa ante la evidencia de lo contrario por parte de un grupo de personas como resultado de deseos, emociones o intenciones compartidas (dependiendo del relato del autoengaño). ) favoreciendo esa creencia. El autoengaño colectivo es distinto de otras formas de falsas creencias colectivas y mdash, tales como el resultado del engaño o la falta de evidencia, en la medida en que la falsa creencia emana de los agentes y sus propios mecanismos de autoengaño (sin importar cómo se interpreten), no la ausencia de evidencia en contrario. o presencia de información errónea. En consecuencia, los individuos que constituyen el grupo no mantendrían la falsa creencia si su visión no estuviera distorsionada por sus actitudes (deseo, ansiedad, miedo o similares) hacia la creencia. What distinguishes collective self-deception from solitary self-deception just is its social context, namely, that it occurs within a group that shares both the attitudes bringing about the false belief and the false belief itself. Compared to its solitary counterpart, self-deception within a collective is both easier to foster and more difficult to escape, being abetted by the self-deceptive efforts of others within the group.

Virtually all self-deception has a social component, being wittingly or unwittingly supported by one's associates (See Ruddick 1988). In the case of collective self-deception, however, the social dimension comes to the fore, since each member of the collective unwittingly helps to sustain the self-deceptive belief of the others in the group. For example, my cancer stricken friend might self-deceptively believe her prognosis to be quite good. Faced with the fearful prospect of death, she does not form accurate beliefs regarding the probability of her full recovery, attending only to evidence supporting full recovery and discounting or ignoring altogether the ample evidence to the contrary. Caring for her as I do, I share many of the anxieties, fears and desires that sustain my friend&rsquos self-deceptive belief, and as a consequence I form the same self-deceptive belief via the same mechanisms. In such a case, I unwittingly support my friend&rsquos self-deceptive belief and she mine&mdashour self-deceptions are mutually reinforcing. We are collectively or mutually self-deceived, albeit on a very small scale. Ruddick (1988) calls this &lsquojoint self-deception.&rsquo

On a larger-scale, sharing common attitudes, large segments of a society might deceive themselves together. For example, we share a number of self-deceptive beliefs regarding our consumption patterns. Many of the goods we consume are produced by people enduring labor conditions we do not find acceptable and in ways that we recognize are environmentally destructive and likely unsustainable. Despite our being at least generally aware of these social and environmental ramifications of our consumptive practices, we hold the overly optimistic beliefs that the world will be fine, that its peril is overstated, that the suffering caused by the exploitive and ecologically degrading practices are overblown, that our own consumption habits are unconnected to these sufferings anyway, even that our minimal efforts at conscientious consumption are an adequate remedy (See, Goleman 1989). When self-deceptive beliefs such as these are held collectively, they become entrenched and their consequences, good or bad, are magnified (Surbey 2004).

The collective entrenches self-deceptive beliefs by providing positive reinforcement by others sharing the same false belief, as well as protection from evidence that would destabilize the target belief. There are, however, limits to how entrenched such beliefs can become and remain self-deceptive. The social support cannot be the sole or primary cause of the self-deceptive belief, for then the belief would simply be the result of unwitting interpersonal deception and not the deviant belief formation process that characterizes self-deception. If the environment becomes so epistemically contaminated as to make counter-evidence inaccessible to the agent, then we have a case of false belief, not self-deception. Thus, even within a collective a person is self-deceived just in case she would not hold her false belief if she did not possess the motivations skewing her belief formation process. This said, relative to solitary self-deception, the collective variety does present greater external obstacles to avoiding or escaping self-deception, and is for this reason more entrenched. If the various proposed psychological mechanisms of self-deception pose an internal challenge to the self-deceiver&rsquos power to control her belief formation, then these social factors pose an external challenge to the self-deceiver&rsquos control. Determining the how superable this challenge is will affect our assessment of individual responsibility for self-deception as well as the prospects of unassisted escape from it.

7.2 Non-summative Collective Self-Deception: Self-Deception of a Collective Entity

Collective self-deception can also be understood from the perspective of the collective itself in a non-summative sense. Though there are varying accounts of group belief, generally speaking, a group can be said to believe, desire, value or the like just in case its members &ldquojointly commit&rdquo to these things as a body (Gilbert 2005). A corporate board, for instance, might be jointly committed as a body to believe, value and strive for whatever the CEO recommends. Such commitment need not entail that each individual board member personally endorses such beliefs, values or goals, only that as members of the board they do (Gilbert 2005). While philosophically precise accounts of non-summative self-deception remain largely unarticulated, the possibilities mirror those of individual self-deception. When collectively held attitudes motivate a group to espouse a false belief despite the group&rsquos possession of evidence to the contrary, we can say that the group is collectively self-deceived in a non-summative sense.

For example, Robert Trivers (2000) suggests that &lsquoorganizational self-deception&rsquo led to NASA&rsquos failure to represent accurately the risks posed by the space shuttle&rsquos O-ring design, a failure that eventually led to the Challenger disaster. The organization as a whole, he argues, had strong incentives to represent such risks as small. As a consequence, NASA&rsquos Safety Unit mishandled and misrepresented data it possessed that suggested that under certain temperature conditions the shuttle&rsquos O-rings were not safe. NASA, as an organization, then, self-deceptively believed the risks posed by O-ring damage were minimal. Within the institution, however, there were a number of individuals who did not share this belief, but both they and the evidence supporting their belief were treated in a bias manner by the decision-makers within the organization. As Trivers (2000) puts it, this information was relegated &ldquoto portions of &hellip the organization that [were] inaccessible to consciousness (we can think of the people running NASA as the conscious part of the organization).&rdquo In this case, collectively held values created a climate within NASA that clouded its vision of the data and led to its endorsement of a fatally false belief.

Collective self-deceit may also play a significant role in facilitating unethical practices by corporate entities. For example, a collective commitment by members of a corporation to maximizing profits might lead members to form false beliefs about the ethical propriety of the corporation&rsquos practices. Gilbert (2005) suggests that such a commitment might lead executives and other members to &ldquosimply lose sight of moral constraints and values they previously held&rdquo. Similarly, Tenbrunsel and Messick (2004) argue that self-deceptive mechanisms play a pervasive role in what they call &lsquoethical fading&rsquo, acting as a kind of &lsquobleach&rsquo that renders organizations blind to the ethical dimensions of their decisions. They argue that such self-deceptive mechanisms must be recognized and actively resisted at the organizational level if unethical behavior is to be avoided. More specifically, Gilbert (2005) contends that collectively accepting that &ldquocertain moral constraints must rein in the pursuit of corporate profits&rdquo might shift corporate culture in such a way that efforts to respect these constraints are recognized as part of being a good corporate citizen. In view of the ramifications this sort of collective self-deception has for the way we understand corporate misconduct and responsibility, understanding its specific nature in greater detail remains an important task.

Collective self-deception understood in either the summative or non-summative sense raises a number of significant questions such as whether individuals within collectives bear responsibility for their self-deception or the part they play in the collective&rsquos self-deception, and whether collective entities can be held responsible for their epistemic failures. Finally, collective self-deception prompts us to ask what means are available collectives and their members to resist, avoid and escape self-deception. To answer these and other questions, more precise accounts of these forms of self-deception are needed. Given the capacity of collective self-deception to entrench false beliefs and to magnify their consequences&mdashsometimes with disastrous results&mdashcollective self-deception is not just a philosophical puzzle it is a problem that demands attention.


Living a Lie: We Deceive Ourselves to Better Deceive Others

People mislead themselves all day long. We tell ourselves we’re smarter and better looking than our friends, that our political party can do no wrong, that we’re too busy to help a colleague. In 1976, in the foreword to Richard Dawkins’s El gen egoísta, the biologist Robert Trivers floated a novel explanation for such self-serving biases: We dupe ourselves in order to deceive others, creating social advantage. After four decades, Trivers and his colleagues published the first research supporting his idea.

Psychologists have identified several ways of fooling ourselves: biased information-gathering, biased reasoning and biased recollections. Their research, published in the Journal of Economic Psychology, focuses on the first—the way we seek information that supports what we want to believe and avoid that which does not.

In one experiment Trivers and his team asked 306 online participants to write a persuasive speech about a fictional man named Mark. They were told they would receive a bonus depending on how effective it was. Some were told to present Mark as likable, others were instructed to depict him as unlikable, the remaining subjects were directed to convey whatever impression they formed. To gather information about Mark, the participants watched a series of short videos, which they could stop observing at any intermission. For some viewers, most of the early videos presented Mark in a good light (recycling, returning a wallet), and they grew gradually darker (catcalling, punching a friend). For others, the videos went from dark to light.

When incentivized to present Mark as likable, people who watched the likable videos first stopped watching sooner than those who saw unlikable videos first. The former did not wait for a complete picture as long as they got the information they needed to convince themselves, and others, of Mark’s goodness. In turn, their own opinions about Mark were more positive, which led their essays about his good nature to be more convincing, as rated by other participants. (A complementary process occurred for those paid to present Mark as bad.) “What’s so interesting is that we seem to intuitively understand that if we can get ourselves to believe something first, we’ll be more effective at getting others to believe it,” says William von Hippel, a psychologist at The University of Queensland, who co-authored the study. “So we process information in a biased fashion, we convince ourselves, and we convince others. The beauty is, those are the steps Trivers outlined—and they all lined up in one study.”

In real life you are not being paid to talk about Mark but you may be selling a used car or debating a tax policy or arguing for a promotion—cases in which you benefit not from gaining and presenting an accurate picture of reality but from convincing someone of a particular point of view.

One of the most common types of self-deception is self-enhancement. Psychologists have traditionally argued we evolved to overestimate our good qualities because it makes us feel good. But feeling good on its own has no bearing on survival or reproduction. Another assertion is self-enhancement boosts motivation, leading to greater accomplishment. But if motivation were the goal, then we would have just evolved to be more motivated, without the costs of reality distortion.

Trivers argues that a glowing self-view makes others see us in the same light, leading to mating and cooperative opportunities. Supporting this argument, Cameron Anderson, a psychologist at the University of California, Berkeley, showed in 2012 that overconfident people are seen as more competent and have higher social status. “I believe there is a good possibility that self-deception evolved for the purpose of other-deception,” Anderson says.

In another study, published in Ciencias de la Psicología Social y de la Personalidad, von Hippel and collaborators tested all three arguments together, in a longitudinal fashion. Does overconfidence in one’s self increase mental health? Motivation? Popularity?

Tracking almost 1,000 Australian high school boys for two years, the researchers found that over time, overconfidence about one’s athleticism and intelligence predicted neither better mental health nor better athletic or academic performance. Yet athletic overconfidence did predict greater popularity over time, supporting the idea that self-deception begets social advantage. (Intellectual self-enhancement may not have boosted popularity, the authors suggest, because among the teenage boys, smarts may have mattered less than sports.)

Why did it take so long for experimental evidence for Trivers’ idea to emerge? In part, he says, because he is a theorist and did not test it until he met von Hippel. Other experimental psychologists didn’t test it because the theory was not well known in psychology, von Hippel and Anderson say. Further, they suggest, most psychologists saw self-esteem or motivation as reason enough for self-enhancement to evolve.

Hugo Mercier, a researcher at the Institute for Cognitive Sciences in France who was not involved in the new studies, is familiar with the theory but questions it. He believes that in the long run overconfidence may backfire. He and others also debate whether motivated biases can strictly be called self-deception. “The whole concept is misleading,” he says. It’s not as though there is one part of us deliberately fooling another part of us that is the “self.” Trivers, von Hippel and Anderson of course disagree with Mercier on self-deception’s functionality and terminology.

Von Hippel offers two pieces of wisdom regarding self-deception: “My Machiavellian advice is this is a tool that works,” he says. “If you need to convince somebody of something, if your career or social success depends on persuasion, then the first person who needs to be [convinced] is yourself.” On the defensive side, he says, whenever anyone tries to convince you of something, think about what might be motivating that person. Even if he is not lying to you, he may be deceiving both you and himself.

This post originally appeared on Scientific American and was published April 3, 2017. This article is republished here with permission.