Nos conocemos muy mal. Ignoramos todo lo que
ignoramos. Estamos llenos de ilusiones (perceptivas y cognitivas), de
propensiones muy arraigadas en nuestro sistema cognitivo como sesgos, falacias
que nos llevan a cometer errores de juicio. La única forma de luchar contra
todos estos automatismos que nos atenazan es mediante el esfuerzo, la atención,
la voluntad y el análisis continuo de todo lo que nos condiciona sin darnos
cuenta. Nadie está exento de todo ese submundo infrarracional. Nadie se puede
liberar de él de una vez por todas. Es una lucha constante. Y el éxito no está
garantizado ni mucho menos. La ciencia, en general, es una empresa colectiva e
histórica contra la pereza, las apariencias, contra todo lo que parece ser y no
es o es lo contrario. En el campo de la psicología Daniel Kahneman ha
contribuido de un modo decisivo a iluminar las sombras de nuestra mente. En su
libro Pensar rápido, pensar despacio, resume
muchos años de investigación propia y ajena. Es una nueva mirada sobre la razón.
Hay desencanto, decepción y mucha desilusión. Pero es mejor saber que no saber,
aunque lo que sepamos sea doloroso.
En lo que sigue hago un resumen de sus
principales contenidos. El Sistema 1 es lo más primitivo de nuestra mente y el
Sistema 2 es el portador de la atención y esfuerzo.
Pobres
resultados
Jueces cansados y hambrientos tienden a tomar
la decisión más fácil y común de denegar peticiones de libertad condicional.
Hay un test muy breve: el test de reflexión
cognitiva (TRC) capaz de predecir aspectos de nuestra mente que nos inducen a
cometer errores, como, por ejemplo, la impulsividad, la impaciencia, los deseos
de gratificación inmediata y el pensamiento perezoso.
Muchos miles de estudiantes universitarios
han respondido al problema del bate y la pelota (uno de los tres problemas del TRC).
Entre un 50% y un 80% dieron la respuesta intuitiva (incorrecta).
Los niños que a los 4 años muestran más
autocontrol, obtienen puntuaciones sustancialmente altas en tests de
inteligencia 10-15 años más tarde. Y son menos propensos a tomar drogas.
Sabemos mucho menos de nosotros mismos de lo
que naturalmente creemos: nuestras acciones y emociones pueden ser primadas por
acontecimientos de los que no somos conscientes. Si hemos sido predispuestos a
pensar en la vejez, tendemos a actuar como en ella. Gestos simples y comunes
influyen de forma inconsciente en nuestros pensamientos y sentimientos. Un
póster con unos ojos que nos mirar hace que la gente se comporte de forma
distinta, sin la menor conciencia.
Primar la idea de dinero fomenta el
individualismo: una renuencia a implicarse con otros, a depender de otros o a
atender a requerimientos de otros.
La tensión cognitiva, cualquiera que sea su
origen, moviliza al S2, que es más probable que rechace la respuesta intuitiva
sugerida por el S1 (TRC)
El efecto de mera exposición: la repetición
de un estímulo arbitrario y el afecto que las personas le toman. El efecto de
mera exposición es realmente más pronunciado en el caso de estímulos que no se
ven conscientemente.
En el test de asociaciones remotas (TAR) las
personas sienten que una tríada de palabras tiene una solución antes de saber
cuál es. Y el estado de ánimo influye en la ejecución de esta tarea: cuando
estamos incómodos o tristes, perdemos la sintonía con el S1 (intuición).
La ilusión de causalidad: estamos
predispuestos desde que nacemos a tener impresiones de causalidad. Michotte
argüía que vemos la causalidad tan
directamente como vemos los colores.
La tendencia a gustarnos (o a disgustarnos)
todo de una persona –incluyendo cosas que no hemos observado- es conocida como
efecto halo. Esto es una muestra de la búsqueda exagerada de coherencia emocional. El efecto
halo es también una muestra de ambigüedad suprimida, al predominar la búsqueda
de la coherencia. Por ejemplo, lo que importa para una buena historia es la
consistencia de la información, no que esta sea completa. Conocer poco puede
hacer más fácil encajar cualquier cosa que conozcamos en un diseño coherente.
Cuando se pide a la gente que juzgue
facialmente la competencia y la afabilidad de los rostros prima la competencia.
La gente juzga la competencia combinando las dimensiones de fortaleza y
honradez. Los rostros que a juicio de la gente irradian competencia combinan un
mentón fuerte con una sonrisa que inspira confianza. El efecto de competencia
facial en una votación es mucho mayor en los votantes con escasa información y
adictos a la televisión que los mejor informados que prescinden de la
televisión.
La
dificultad de la probabilidad
Incluso los investigadores más perspicaces
tienen pobres intuiciones y una idea bastante vaga de los efectos de las
muestras. No son conscientes de que las muestras grandes son más precisas que
las muestras pequeñas. Las muestras pequeñas arrojan resultados extremos con
más frecuencia que las muestras grandes. Muchos investigadores no hacen
cálculos para decidir sobre el tamaño de una muestra. Utilizan su juicio
sesgado. Los psicólogos eligen muestras que se exponen a un riesgo de fracaso
del 50% en la confirmación de sus hipótesis aun siendo verdaderas. Las
decisiones de los psicólogos sobre el tamaño de las muestras reflejan
concepciones intuitivas falsas sobre las variaciones de amplitud de las
muestras. Hasta los expertos prestan una atención insuficiente al tamaño de las
muestras. La fe exagerada de los investigadores en lo que puede aprenderse de
unas pocas observaciones está íntimamente relacionada con el efecto halo. La
confianza exagerada en las muestras pequeñas es solo un ejemplo de una ilusión
más general.
Nuestra predilección por el pensamiento
causal nos expone a serios errores en la evaluación de la aleatoriedad de
sucesos realmente aleatorios. Tomemos el sexo de seis nacimientos consecutivos
en un hospital. ¿Son estas secuencias: MMMFFF; FFFFFF y MFMMFM igual de
probables? La respuesta intuitiva es falsa. La estadística arroja muchas
observaciones que parecen pedir explicaciones causales, pero las explicaciones
causales de acontecimientos aleatorios son inevitablemente falsas.
El efecto ancla se produce cuando las
personas consideran un valor particular para una cantidad desconocida antes de
estimar esa cantidad. Jueces alemanes leyeron primero la descripción de una
mujer sorprendida robando, luego lanzaron un par de dados preparados para que
los resultados fueran 3 o 9. Entonces se les pidió que sentenciaran a la mujer
a una pena de prisión mayor o menor que el número que mostraban los dados.
Finalmente tenían que especificar la pena exacta. Los que habían sacado un 9
decidieron una sentencia de 8 meses de media, y los que sacaron 3 de 5 meses de
media. El efecto ancla fue del 50%.
Se define la heurística de la disponibilidad
como el proceso de juzgar la frecuencia por la facilidad con que los ejemplos vienen
a la mente. La facilidad con que los ejemplos acuden a la mente es una
heurística del S1, que es remplazada por una focalización en el contenido
cuando el S2 está más comprometido. Las personas que se dejan guiar por el S1
son mucho más propensas a los sesgos de disponibilidad que las que se hallan en
estado de mayor atención.
La cascada de disponibilidad es un mecanismo
por el cual los sesgos afluyen a la política. Muchas veces el grado de
preocupación no se corresponde con la probabilidad del daño. Imaginamos el
numerador y olvidamos el denominador. La combinación de olvido de la
probabilidad con los mecanismos sociales de las cascadas de disponibilidad
conduce inevitablemente a una enorme exageración de amenazas menores.
Juzgar la probabilidad por la
representatividad comporta una disposición excesiva a predecir acontecimientos
improbables, esto es, cuya tasa base es baja. Y, además, comporta una
insensibilidad a la cualidad de la evidencia. Se confunden coherencia,
plausibilidad y probabilidad. Para superar estas tendencias debemos disciplinar
nuestra mente: anclar nuestro juicio de probabilidad en un resultado de una
tasa base plausible y cuestionar la diagnosticidad de nuestra evidencia.
La falacia de la conjunción: se hace una
conjunción de dos sucesos para que resulte más probable que uno de ellos en una
comparación directa. Veamos un ejemplo:
Un dado regular de 6 caras (4 verdes y 2
rojas) se lanza 20 veces. Se muestran 3 secuencias y se pide escoger una. Se
gana dinero si sale la secuencia elegida:
1.
RVRRR
2.
VRVRRR
3.
VRRRRR
La primera secuencia sería poco
representativa. La segunda se ajustaría más a lo que esperaríamos del dado. Sin
embargo, esta secuencia se construyó añadiendo una V al comienzo de la primera
secuencia, de modo que es menos probable que la primera. Si domina la
representatividad se escoge la secuencia 2. Si se evita la representatividad y
se inhibe la falacia de la conjunción se elige la secuencia 1.
La gente no hará una inferencia que entre en
conflicto con otras creencias a partir de la información de la tasa base.
Cambiar nuestras ideas sobre la naturaleza humana es difícil, y cambiar a peor
las ideas sobre uno mismo todavía lo es más.
Unas veces no detectado, y otras erróneamente
explicado, el fenómeno de la regresión a la media es extraño a la mente humana.
No fue identificado y entendido hasta 200 años después de la teoría de la
gravitación universal. La regresión a la media se da inevitablemente cuando la
correlación entre dos mediciones es menos que perfecta. A Galton le llevó
varios años entender que la correlación y la regresión son diferentes
perspectivas del mismo concepto. Decir que Las
mujeres muy inteligentes tienden a casarse con hombres menos inteligentes que
ellas es equivalente a La correlación
entre cocientes de inteligencia de cónyuges es menos que prefecta. Si la
correlación entre inteligencia de los cónyuges es menos que prefecta, entonces
es inevitable que mujeres muy inteligentes se casen con hombres que serán de
media menos inteligentes que ellas, y viceversa. ¿La razón de esta dificultad?
Una vez más, hemos de decir que nuestra mente se halla fuertemente predispuesta
a las explicaciones causales y no se lleva bien con la estadística. La relación
entre correlación y regresión permanece oscura. El S2 encuentra difícil
entenderla y aprenderla. Esto se debe a la insistente demanda de
interpretaciones causales, la cual es un rasgo del S1. El concepto de regresión
está muy lejos de ser obvio. Se ha hecho una larga lista de investigadores que
cometen el mismo error: confundir la mera correlación con la causación.
Las predicciones intuitivas necesitan ser
corregidas porque no son regresivas y, por tanto, están sesgadas. Las
predicciones intuitivas tienden a ser confiadas en exceso y francamente
extremas. Las predicciones extremas y la disposición a predecir eventos raros a
partir de una evidencia poco sólida son manifestaciones del S1. La regresión a
la media es también un problema del S2. La idea misma de regresión a la media
resulta extraña y difícil de transmitir y comprender. No conseguiremos entender
la regresión a la media partiendo de la experiencia. Y aunque identifiquemos
una regresión, haremos una interpretación causal que resulta casi siempre
errónea.
Las
ilusiones
Una limitación general de la mente humana es
su insuficiente capacidad para reconocer estados pasados del conocimiento o
creencias que han cambiado. Incapacidad para reconstruir creencias pretéritas
(sesgo de la retrospección). Igualmente
cuando evaluamos una decisión no por lo adecuado de la misma sino por el
resultado practicamos el sesgo del resultado. La poderosa ilusión cognitiva de
que uno ha entendido el pasado alimenta la ilusión, igualmente perniciosa, de
que se puede predecir y controlar el futuro.
Aunque veamos que nuestras predicciones son
fallidas seguimos actuando como si fuesen válidas (ilusión de validez). La
ilusión de sagacidad: creemos saber más de lo que sabemos sobre un determinado
aspecto de la realidad. La ilusión de aptitud no es solo una aberración
individual; está profundamente arraigada en la cultura industrial. Todas estas
ilusiones cognitivas pueden ser más fuertes que las ilusiones perceptivas. Nos
resulta difícil aceptar los límites de nuestra capacidad predictiva. El futuro
es impredecible. La ilusión de la predicción válida siempre permanecerá intacta.
Se ha demostrado que personas que se ganan la vida estudiando un tema
particular hacen predicciones con menos aciertos que los logrados por el mero
azar. La persona que adquiere más conocimientos desarrolla una ilusión de su
aptitud algo mejorada, lo que hace que tenga un exceso de confianza poco
realista. Cuanto más famoso es el predictor, más extravagantes son sus
previsiones. Los errores de predicción son inevitables porque el mundo es
impredecible.
Los algoritmos basados en predicciones
estadísticas superan a las logradas por expertos. La fórmula estadística que
predice el precio del vino a partir de los factores de tres valores climáticos
es muy exacta: la correlación entre sus predicciones y los precios reales es
superior a 0.90. Los radiólogos experimentados que dictaminan si una
radiografía de tórax se contradicen el 20% de las veces que observan la misma
placa. Si queremos maximizar el acierto de las predicciones es mejor fiarnos de
las fórmulas o algoritmos basados en datos estadísticos. Las simples reglas
estadísticas son superiores a los juicios “clínicos” intuitivos.
Los verdaderos expertos conocen los límites
de sus conocimientos. Tenemos que precavernos de nuestra propensión, muy
asentada, a poner nuestra confianza en intuiciones infundadas. La confianza que
las personas tengan en sus intuiciones no es una guía segura para conocer su
validez. Sólo cuando se cumplen estas dos condiciones: (1) un entorno regular y
(2) aprendizaje de regularidades mediante la práctica, las intuiciones pueden
ser aptas. Los algoritmos estadísticos superan a lo humanos en entornos con
ruido. No se puede confiar en la intuición cuando no hay regularidades estables
en el entorno. Los expertos confían tanto en sí mismos porque no reconocen sus
límites.
No sabemos que no sabemos. Eso nos lleva a la
falacia de la planificación (planes poco realistas que podrían mejorarse
consultando estadísticas y no se consultan) y la perseverancia irracional en
proyectos inviables. Esa falacia sólo se supera con una perspectiva desde fuera.
Se trata de superar la peor de las ignorancias: no saber que no sabemos.
El sesgo optimista es uno de los sesgos más
destacables de entre todos los sesgos cognitivos. Los individuos optimistas
desempeñan un papel desproporcionado en nuestras vidas. El optimismo, la
confianza y la asunción de más riesgos de los que reconocen. El optimismo está
muy extendido, es pertinaz y muy costoso. Los humanos creen de verdad que son
superiores a casi todos los demás: la creencia en la propia superioridad. La
mayoría cree estar por encima de la media. Eso hace que la gente sea demasiado
optimista sobre su capacidad relativa para una actividad que realiza
medianamente bien. La correlación entre las estimaciones (de agentes
financieros de grandes corporaciones) y el valor real (a corto plazo del
mercado bursátil) era algo menor que cero. Cuando decían que el mercado
descendería, era ligeramente más probable que creciera. La verdadera mala noticia
es que los directivos no sabían que sus predicciones carecían de valor. Están
aquejados de un exceso de confianza. No saben, además, lo poco que saben. La
apreciación no sesgada de la incertidumbre es uno de los pilares de la
racionalidad, pero no es esto lo que las personas y organizaciones quieren.
La
vulneración de la coherencia o de la consistencia.
Hay una vulneración sistemática de los
axiomas de la racionalidad en las elecciones entre juegos.
La ceguera inducida por la teoría: cuando
hemos aceptado una teoría y la hemos usado como herramienta intelectual es
extraordinariamente difícil apreciar sus fallos. Descreer de algo es una tarea
muy difícil. Kahneman y Tverski encontraron un error central en la teoría de
elección de Bernoulli: no eran los primeros en notar que los humanos buscan el
riesgo cuando todas sus opciones son malas, pero la ceguera inducida por la
teoría prevalecía. La teoría de Bernoulli es demasiado simple y carece de la
parte emotiva. La variable ausente es el punto de referencia, el estado
anterior con relación al cual se evalúan ganancias y pérdidas. En la teoría de
Bernoulli necesitamos conocer sólo el estado de nuestro patrimonio para
determinar la utilidad, pero necesitamos conocer también el estado de
referencia, es decir, una teoría más compleja que la teoría de la utilidad.
Necesitamos considerar tres aspectos: la evaluación es relativa a un punto de
referencia neutral; el principio de disminución de la sensibilidad y la
aversión a la pérdida, es decir, las pérdidas pesan más que las ganancias. Los
humanos tienen aversión a la pérdida. La respuesta a una pérdida es más intensa
que la respuesta a la ganancia correspondiente.
El fracaso en hacer par es una pérdida, pero
fallar en un golpe de birdie es
prever una ganancia, no una pérdida. Pope y Schweitzer razonaron desde la
aversión a la pérdida que los jugadores intentarían golpear la pelota con algo
más de empeño para un par (y evitar un bogey)
que para un birdie. Analizaron más de
2.5 millones de golpes con exquisito detalle para comprobar esta predicción.
Tenían razón. Fuese fácil o difícil, y a
cualquier distancia que estuviera el hoyo, los jugadores lo hacían mejor cuando
golpeaban para un par que para un birdie.
La diferencia en su tasa de éxitos cuando iban por el par (para evitar un bogey) o por un birdie era del 3,6%.
Esta diferencia no es trivial. Tiger W. fue uno de los “participantes” en su
estudio. Si en sus mejores años TW se las había arreglado para birdies tanto como para par, su
puntuación en los torneos había mejorado en un golpe, y sus ganancias en casi 1
millón de dólares por temporada. Estos temibles competidores no toman una
decisión consciente de aflojar en los birdies,
pero su intensa aversión a un bogey
contribuye a una concentración extra.
El estudio de los golpes de golf ilustra la
capacidad de un concepto teórico para ayudar a pensar. ¿Quién hubiera pensado
que pudiera ser tan valioso como para pasarse meses analizando golpes de par y birdie? La idea de la aversión a la
pérdida, que no sorprende a nadie salvo a algunos economistas, generó una
hipótesis precisa y no intuitiva, y llevó a los investigadores a una conclusión
que sorprendió a todo el mundo, incluidos los golfistas profesionales.
Debido al efecto de posibilidad, tendemos a
sobrestimar riesgos pequeños y estamos dispuestos a pagar mucho más del valor
esperado para eliminarlos por completo. Los valores que las personas asignan a
determinados resultados no son idénticos a los valores de las probabilidades de
esos resultados, en contra del principio de la expectativa. Los resultados
improbables son sobrestimados; es el efecto de posibilidad. Y los resultados
casi ciertos son subestimados relativamente a la certeza actual. Cuando no
ignoramos los eventos muy raros, es casi seguro que los sobrestimemos. Cuando
un evento improbable se convierte en foco de atención, se le confiere mucho más
peso del que merece su probabilidad. Debido al efecto de posibilidad, la
preocupación no es proporcional a la probabilidad de la amenaza. La
sobrestimación sistemática de resultados improbables conduce a resultados no
deseables.
Puede haber búsqueda del riesgo cuando las
perspectivas son negativas. Cuando consideramos la elección entre una pérdida
segura y un juego con alta probabilidad de una gran pérdida, la disminución de
la sensibilidad hace que la aversión a la pérdida segura sea menor, y el efecto
de certeza reduce la aversión que pueda suscitar el juego. Por eso cuando las
personas se ven frente a opciones muy malas juegan a la desesperada, aceptando
una alta probabilidad de empeorar las cosas por una pequeña esperanza de evitar
una gran pérdida. Esta forma de arriesgarse a menudo hace soportable el
resultado desastroso.
El sesgo del olvido del denominador. Este
sesgo ayuda a explicar por qué distintas formas de comunicar riesgos varían
tanto en sus efectos. Los participantes que vieron información sobre una
enfermedad que mata a 1286 de cada 10000 la juzgaron más peligrosa que aquellos
a los que se habló de una enfermedad que mata al 24.14% de la población.
Tendemos a tomar decisiones conforme se nos
presentan los problemas aun estando específicamente instruidos para
considerarlos conjuntamente. No tenemos ni la inclinación ni los recursos
mentales para hacer valer la consistencia en nuestras preferencias, y nuestras
preferencias no son coherentes.
Hay que evaluar dos
diccionarios musicales usados:
A
B
Año de
publicación 1993
1993
Número de
entradas 10.000
20.000
Estado como
nuevo cubiertas rotas; el resto
como nuevo
Cuando se presentan los diccionarios para una
evaluación separada, el A es más valorado. En una evaluación conjunta la
preferencia cambia: el número de entradas no tiene significación en la
evaluación separada, porque los números no son evaluables en si mismos. En la
evaluación conjunta, en cambio, resulta inmediatamente obvio que el B es
superior en ese atributo, y queda patente que el número de entradas es mucho
más importante que el estado de las cubiertas.
La racionalidad viene servida mejor por
marcos más amplios y comprehensivos, y la evaluación conjunta es obviamente más
amplia que la evaluación separada. Podemos ver lo absurdo solo si se examinan
dos casos conjuntamente en un marco ancho.
La
exagerada influencia de la formulación, marco o contexto
Hay influencias injustificadas de una
formulación sobre preferencias:
(a) ¿Aceptaría un juego que ofrece un 10% de posibilidades de
ganar 95$ y un 90% de posibilidades de perder 5$?
(b) ¿Pagaría 5$ por participar en una lotería que ofrece un
10% de posibilidades de ganar 100$ y un 90% de posibilidades de no ganar nada?
La versión segunda atrae más respuestas
afirmativas. Las pérdidas provocan sentimientos más negativos que los costes.
La gente está más dispuesta a renunciar a un descuento que a pagar un recargo.
Un ejemplo clásico de influencia del marco,
de la formulación, del componente emocional:
(1) La supervivencia a un mes [de un tratamiento] es del 90%
(2) Hay un 10% de mortalidad en el primer mes.
La equivalencia lógica de las dos
descripciones es transparente. Estas descripciones producen cambios en las
preferencias, incluso en las de profesionales de la medicina. Los médicos son
tan sensibles al efecto marco como las personas sin formación médica alguna.
Imagine que USA se está
preparando para el brote de una rara enfermedad que se espera acabe con la vida
de 600 personas. Se han propuesto 2 programas alternativos para combatir la
enfermedad. Suponga que las estimaciones científicas más exactas de las
consecuencias de los programas son las siguientes:
Si se adopta el programa A, se salvarán 200 personas
Si se adopta el programa B, hay una probabilidad de 1/3
de que 600 personas se salven y una probabilidad de 2/3 de que ninguna de ellas
se salve.
Una mayoría eligió el programa A. Veamos una
segunda versión:
Si se adopta
el programa A´, 400 personas morirán.
Si se adopta el programa B´, hay una probabilidad de 1/3
de que nadie muera y una probabilidad de 2/3 de que 600 personas mueran.
En este caso la gran mayoría eligió el
programa B. Se prefiere lo seguro por la aversión al riesgo cuando los
resultados son buenos. Se rechaza lo seguro y se busca el riesgo cuando ambos
resultados son negativos. Pero una cosa está clara: las preferencias entre idénticos resultados objetivos son
revocadas en formulaciones diferentes. La gente no es consciente de su salvaje
inconsistencia.
Consideremos dos propietarios de automóviles
que desean reducir sus costes:
Adam se ha pasado de un
coche que hace 12 millas por galón a otro que consume menos y hace 14 millas
por galón.
La ecológicamente
concienciada Beth se ha pasado de un coche que hace 30 millas por galón a otro
que hace 40.
Supongamos que ambos recorren distancias
iguales en un año. ¿Quién ahorra más dinero con su cambio? Intuitivamente
parecería que Beth. Sin embargo, si han hecho, por ejemplo, 10.000 millas, Adam
reducirá su consumo de 833 (10000/12) a 714 galones (10000/14), ahorrando 119.
El consumo de Beth descenderá de 333 (10000/30) a 250 (10000/40) y ahorrará,
por tanto, 83 galones. La publicación de este experimento ha hecho que en USA
se vaya a expresar –a partir de 2013- la
información en galones por milla y no en millas por galones.
La única salida es volver a la sabiduría
clásica del conócete a ti mismo: reconocer que no sabemos, ponerle nombre a
nuestra ignorancia e ir más allá de la ignorancia que se ignora. Sólo sé que no
sé nada. Como dijo Juan de Yepes: para
llegar a donde no sabes has de ir por donde no sabes.