viernes, 13 de julio de 2012

Daniel Kahneman: una nueva mirada sobre la racionalidad


Nos conocemos muy mal. Ignoramos todo lo que ignoramos. Estamos llenos de ilusiones (perceptivas y cognitivas), de propensiones muy arraigadas en nuestro sistema cognitivo como sesgos, falacias que nos llevan a cometer errores de juicio. La única forma de luchar contra todos estos automatismos que nos atenazan es mediante el esfuerzo, la atención, la voluntad y el análisis continuo de todo lo que nos condiciona sin darnos cuenta. Nadie está exento de todo ese submundo infrarracional. Nadie se puede liberar de él de una vez por todas. Es una lucha constante. Y el éxito no está garantizado ni mucho menos. La ciencia, en general, es una empresa colectiva e histórica contra la pereza, las apariencias, contra todo lo que parece ser y no es o es lo contrario. En el campo de la psicología Daniel Kahneman ha contribuido de un modo decisivo a iluminar las sombras de nuestra mente. En su libro Pensar rápido, pensar despacio, resume muchos años de investigación propia y ajena. Es una nueva mirada sobre la razón. Hay desencanto, decepción y mucha desilusión. Pero es mejor saber que no saber, aunque lo que sepamos sea doloroso.
En lo que sigue hago un resumen de sus principales contenidos. El Sistema 1 es lo más primitivo de nuestra mente y el Sistema 2 es el portador de la atención y esfuerzo.
Pobres resultados
Jueces cansados y hambrientos tienden a tomar la decisión más fácil y común de denegar peticiones de libertad condicional.
Hay un test muy breve: el test de reflexión cognitiva (TRC) capaz de predecir aspectos de nuestra mente que nos inducen a cometer errores, como, por ejemplo, la impulsividad, la impaciencia, los deseos de gratificación inmediata y el pensamiento perezoso.
Muchos miles de estudiantes universitarios han respondido al problema del bate y la pelota (uno de los tres problemas del TRC). Entre un 50% y un 80% dieron la respuesta intuitiva (incorrecta).
Los niños que a los 4 años muestran más autocontrol, obtienen puntuaciones sustancialmente altas en tests de inteligencia 10-15 años más tarde. Y son menos propensos a tomar drogas.
Sabemos mucho menos de nosotros mismos de lo que naturalmente creemos: nuestras acciones y emociones pueden ser primadas por acontecimientos de los que no somos conscientes. Si hemos sido predispuestos a pensar en la vejez, tendemos a actuar como en ella. Gestos simples y comunes influyen de forma inconsciente en nuestros pensamientos y sentimientos. Un póster con unos ojos que nos mirar hace que la gente se comporte de forma distinta, sin la menor conciencia.
Primar la idea de dinero fomenta el individualismo: una renuencia a implicarse con otros, a depender de otros o a atender a requerimientos de otros.
La tensión cognitiva, cualquiera que sea su origen, moviliza al S2, que es más probable que rechace la respuesta intuitiva sugerida por el S1 (TRC)
El efecto de mera exposición: la repetición de un estímulo arbitrario y el afecto que las personas le toman. El efecto de mera exposición es realmente más pronunciado en el caso de estímulos que no se ven conscientemente.
En el test de asociaciones remotas (TAR) las personas sienten que una tríada de palabras tiene una solución antes de saber cuál es. Y el estado de ánimo influye en la ejecución de esta tarea: cuando estamos incómodos o tristes, perdemos la sintonía con el S1 (intuición).
La ilusión de causalidad: estamos predispuestos desde que nacemos a tener impresiones de causalidad. Michotte argüía que vemos la causalidad tan directamente como vemos los colores.
La tendencia a gustarnos (o a disgustarnos) todo de una persona –incluyendo cosas que no hemos observado- es conocida como efecto halo. Esto es una muestra de la búsqueda  exagerada de coherencia emocional. El efecto halo es también una muestra de ambigüedad suprimida, al predominar la búsqueda de la coherencia. Por ejemplo, lo que importa para una buena historia es la consistencia de la información, no que esta sea completa. Conocer poco puede hacer más fácil encajar cualquier cosa que conozcamos en un diseño coherente.
Cuando se pide a la gente que juzgue facialmente la competencia y la afabilidad de los rostros prima la competencia. La gente juzga la competencia combinando las dimensiones de fortaleza y honradez. Los rostros que a juicio de la gente irradian competencia combinan un mentón fuerte con una sonrisa que inspira confianza. El efecto de competencia facial en una votación es mucho mayor en los votantes con escasa información y adictos a la televisión que los mejor informados que prescinden de la televisión.
La dificultad de la probabilidad
Incluso los investigadores más perspicaces tienen pobres intuiciones y una idea bastante vaga de los efectos de las muestras. No son conscientes de que las muestras grandes son más precisas que las muestras pequeñas. Las muestras pequeñas arrojan resultados extremos con más frecuencia que las muestras grandes. Muchos investigadores no hacen cálculos para decidir sobre el tamaño de una muestra. Utilizan su juicio sesgado. Los psicólogos eligen muestras que se exponen a un riesgo de fracaso del 50% en la confirmación de sus hipótesis aun siendo verdaderas. Las decisiones de los psicólogos sobre el tamaño de las muestras reflejan concepciones intuitivas falsas sobre las variaciones de amplitud de las muestras. Hasta los expertos prestan una atención insuficiente al tamaño de las muestras. La fe exagerada de los investigadores en lo que puede aprenderse de unas pocas observaciones está íntimamente relacionada con el efecto halo. La confianza exagerada en las muestras pequeñas es solo un ejemplo de una ilusión más general.
Nuestra predilección por el pensamiento causal nos expone a serios errores en la evaluación de la aleatoriedad de sucesos realmente aleatorios. Tomemos el sexo de seis nacimientos consecutivos en un hospital. ¿Son estas secuencias: MMMFFF; FFFFFF y MFMMFM igual de probables? La respuesta intuitiva es falsa. La estadística arroja muchas observaciones que parecen pedir explicaciones causales, pero las explicaciones causales de acontecimientos aleatorios son inevitablemente falsas.
El efecto ancla se produce cuando las personas consideran un valor particular para una cantidad desconocida antes de estimar esa cantidad. Jueces alemanes leyeron primero la descripción de una mujer sorprendida robando, luego lanzaron un par de dados preparados para que los resultados fueran 3 o 9. Entonces se les pidió que sentenciaran a la mujer a una pena de prisión mayor o menor que el número que mostraban los dados. Finalmente tenían que especificar la pena exacta. Los que habían sacado un 9 decidieron una sentencia de 8 meses de media, y los que sacaron 3 de 5 meses de media. El efecto ancla fue del 50%.
Se define la heurística de la disponibilidad como el proceso de juzgar la frecuencia por la facilidad con que los ejemplos vienen a la mente. La facilidad con que los ejemplos acuden a la mente es una heurística del S1, que es remplazada por una focalización en el contenido cuando el S2 está más comprometido. Las personas que se dejan guiar por el S1 son mucho más propensas a los sesgos de disponibilidad que las que se hallan en estado de mayor atención.
La cascada de disponibilidad es un mecanismo por el cual los sesgos afluyen a la política. Muchas veces el grado de preocupación no se corresponde con la probabilidad del daño. Imaginamos el numerador y olvidamos el denominador. La combinación de olvido de la probabilidad con los mecanismos sociales de las cascadas de disponibilidad conduce inevitablemente a una enorme exageración de amenazas menores.
Juzgar la probabilidad por la representatividad comporta una disposición excesiva a predecir acontecimientos improbables, esto es, cuya tasa base es baja. Y, además, comporta una insensibilidad a la cualidad de la evidencia. Se confunden coherencia, plausibilidad y probabilidad. Para superar estas tendencias debemos disciplinar nuestra mente: anclar nuestro juicio de probabilidad en un resultado de una tasa base plausible y cuestionar la diagnosticidad de nuestra evidencia.
La falacia de la conjunción: se hace una conjunción de dos sucesos para que resulte más probable que uno de ellos en una comparación directa. Veamos un ejemplo:
Un dado regular de 6 caras (4 verdes y 2 rojas) se lanza 20 veces. Se muestran 3 secuencias y se pide escoger una. Se gana dinero si sale la secuencia elegida:
1.    RVRRR
2.    VRVRRR
3.    VRRRRR
La primera secuencia sería poco representativa. La segunda se ajustaría más a lo que esperaríamos del dado. Sin embargo, esta secuencia se construyó añadiendo una V al comienzo de la primera secuencia, de modo que es menos probable que la primera. Si domina la representatividad se escoge la secuencia 2. Si se evita la representatividad y se inhibe la falacia de la conjunción se elige la secuencia 1.
La gente no hará una inferencia que entre en conflicto con otras creencias a partir de la información de la tasa base. Cambiar nuestras ideas sobre la naturaleza humana es difícil, y cambiar a peor las ideas sobre uno mismo todavía lo es más.
Unas veces no detectado, y otras erróneamente explicado, el fenómeno de la regresión a la media es extraño a la mente humana. No fue identificado y entendido hasta 200 años después de la teoría de la gravitación universal. La regresión a la media se da inevitablemente cuando la correlación entre dos mediciones es menos que perfecta. A Galton le llevó varios años entender que la correlación y la regresión son diferentes perspectivas del mismo concepto. Decir que Las mujeres muy inteligentes tienden a casarse con hombres menos inteligentes que ellas es equivalente a La correlación entre cocientes de inteligencia de cónyuges es menos que prefecta. Si la correlación entre inteligencia de los cónyuges es menos que prefecta, entonces es inevitable que mujeres muy inteligentes se casen con hombres que serán de media menos inteligentes que ellas, y viceversa. ¿La razón de esta dificultad? Una vez más, hemos de decir que nuestra mente se halla fuertemente predispuesta a las explicaciones causales y no se lleva bien con la estadística. La relación entre correlación y regresión permanece oscura. El S2 encuentra difícil entenderla y aprenderla. Esto se debe a la insistente demanda de interpretaciones causales, la cual es un rasgo del S1. El concepto de regresión está muy lejos de ser obvio. Se ha hecho una larga lista de investigadores que cometen el mismo error: confundir la mera correlación con la causación.
Las predicciones intuitivas necesitan ser corregidas porque no son regresivas y, por tanto, están sesgadas. Las predicciones intuitivas tienden a ser confiadas en exceso y francamente extremas. Las predicciones extremas y la disposición a predecir eventos raros a partir de una evidencia poco sólida son manifestaciones del S1. La regresión a la media es también un problema del S2. La idea misma de regresión a la media resulta extraña y difícil de transmitir y comprender. No conseguiremos entender la regresión a la media partiendo de la experiencia. Y aunque identifiquemos una regresión, haremos una interpretación causal que resulta casi siempre errónea.
Las ilusiones
Una limitación general de la mente humana es su insuficiente capacidad para reconocer estados pasados del conocimiento o creencias que han cambiado. Incapacidad para reconstruir creencias pretéritas (sesgo de la retrospección).  Igualmente cuando evaluamos una decisión no por lo adecuado de la misma sino por el resultado practicamos el sesgo del resultado. La poderosa ilusión cognitiva de que uno ha entendido el pasado alimenta la ilusión, igualmente perniciosa, de que se puede predecir y controlar el futuro.
Aunque veamos que nuestras predicciones son fallidas seguimos actuando como si fuesen válidas (ilusión de validez). La ilusión de sagacidad: creemos saber más de lo que sabemos sobre un determinado aspecto de la realidad. La ilusión de aptitud no es solo una aberración individual; está profundamente arraigada en la cultura industrial. Todas estas ilusiones cognitivas pueden ser más fuertes que las ilusiones perceptivas. Nos resulta difícil aceptar los límites de nuestra capacidad predictiva. El futuro es impredecible. La ilusión de la predicción válida siempre permanecerá intacta. Se ha demostrado que personas que se ganan la vida estudiando un tema particular hacen predicciones con menos aciertos que los logrados por el mero azar. La persona que adquiere más conocimientos desarrolla una ilusión de su aptitud algo mejorada, lo que hace que tenga un exceso de confianza poco realista. Cuanto más famoso es el predictor, más extravagantes son sus previsiones. Los errores de predicción son inevitables porque el mundo es impredecible.
Los algoritmos basados en predicciones estadísticas superan a las logradas por expertos. La fórmula estadística que predice el precio del vino a partir de los factores de tres valores climáticos es muy exacta: la correlación entre sus predicciones y los precios reales es superior a 0.90. Los radiólogos experimentados que dictaminan si una radiografía de tórax se contradicen el 20% de las veces que observan la misma placa. Si queremos maximizar el acierto de las predicciones es mejor fiarnos de las fórmulas o algoritmos basados en datos estadísticos. Las simples reglas estadísticas son superiores a los juicios “clínicos” intuitivos.
Los verdaderos expertos conocen los límites de sus conocimientos. Tenemos que precavernos de nuestra propensión, muy asentada, a poner nuestra confianza en intuiciones infundadas. La confianza que las personas tengan en sus intuiciones no es una guía segura para conocer su validez. Sólo cuando se cumplen estas dos condiciones: (1) un entorno regular y (2) aprendizaje de regularidades mediante la práctica, las intuiciones pueden ser aptas. Los algoritmos estadísticos superan a lo humanos en entornos con ruido. No se puede confiar en la intuición cuando no hay regularidades estables en el entorno. Los expertos confían tanto en sí mismos porque no reconocen sus límites.
No sabemos que no sabemos. Eso nos lleva a la falacia de la planificación (planes poco realistas que podrían mejorarse consultando estadísticas y no se consultan) y la perseverancia irracional en proyectos inviables. Esa falacia sólo se supera con una perspectiva desde fuera. Se trata de superar la peor de las ignorancias: no saber que no sabemos.
El sesgo optimista es uno de los sesgos más destacables de entre todos los sesgos cognitivos. Los individuos optimistas desempeñan un papel desproporcionado en nuestras vidas. El optimismo, la confianza y la asunción de más riesgos de los que reconocen. El optimismo está muy extendido, es pertinaz y muy costoso. Los humanos creen de verdad que son superiores a casi todos los demás: la creencia en la propia superioridad. La mayoría cree estar por encima de la media. Eso hace que la gente sea demasiado optimista sobre su capacidad relativa para una actividad que realiza medianamente bien. La correlación entre las estimaciones (de agentes financieros de grandes corporaciones) y el valor real (a corto plazo del mercado bursátil) era algo menor que cero. Cuando decían que el mercado descendería, era ligeramente más probable que creciera. La verdadera mala noticia es que los directivos no sabían que sus predicciones carecían de valor. Están aquejados de un exceso de confianza. No saben, además, lo poco que saben. La apreciación no sesgada de la incertidumbre es uno de los pilares de la racionalidad, pero no es esto lo que las personas y organizaciones quieren.
La vulneración de la coherencia o de la consistencia.
Hay una vulneración sistemática de los axiomas de la racionalidad en las elecciones entre juegos.
La ceguera inducida por la teoría: cuando hemos aceptado una teoría y la hemos usado como herramienta intelectual es extraordinariamente difícil apreciar sus fallos. Descreer de algo es una tarea muy difícil. Kahneman y Tverski encontraron un error central en la teoría de elección de Bernoulli: no eran los primeros en notar que los humanos buscan el riesgo cuando todas sus opciones son malas, pero la ceguera inducida por la teoría prevalecía. La teoría de Bernoulli es demasiado simple y carece de la parte emotiva. La variable ausente es el punto de referencia, el estado anterior con relación al cual se evalúan ganancias y pérdidas. En la teoría de Bernoulli necesitamos conocer sólo el estado de nuestro patrimonio para determinar la utilidad, pero necesitamos conocer también el estado de referencia, es decir, una teoría más compleja que la teoría de la utilidad. Necesitamos considerar tres aspectos: la evaluación es relativa a un punto de referencia neutral; el principio de disminución de la sensibilidad y la aversión a la pérdida, es decir, las pérdidas pesan más que las ganancias. Los humanos tienen aversión a la pérdida. La respuesta a una pérdida es más intensa que la respuesta a la ganancia correspondiente.
El fracaso en hacer par es una pérdida, pero fallar en un golpe de birdie es prever una ganancia, no una pérdida. Pope y Schweitzer razonaron desde la aversión a la pérdida que los jugadores intentarían golpear la pelota con algo más de empeño para un par (y evitar un bogey) que para un birdie. Analizaron más de 2.5 millones de golpes con exquisito detalle para comprobar esta predicción.
Tenían razón. Fuese fácil o difícil, y a cualquier distancia que estuviera el hoyo, los jugadores lo hacían mejor cuando golpeaban para un par que para un birdie. La diferencia en su tasa de éxitos cuando iban por el par (para evitar un bogey) o por un birdie era del 3,6%. Esta diferencia no es trivial. Tiger W. fue uno de los “participantes” en su estudio. Si en sus mejores años TW se las había arreglado para birdies tanto como para par, su puntuación en los torneos había mejorado en un golpe, y sus ganancias en casi 1 millón de dólares por temporada. Estos temibles competidores no toman una decisión consciente de aflojar en los birdies, pero su intensa aversión a un bogey contribuye a una concentración extra.
El estudio de los golpes de golf ilustra la capacidad de un concepto teórico para ayudar a pensar. ¿Quién hubiera pensado que pudiera ser tan valioso como para pasarse meses analizando golpes de par y birdie? La idea de la aversión a la pérdida, que no sorprende a nadie salvo a algunos economistas, generó una hipótesis precisa y no intuitiva, y llevó a los investigadores a una conclusión que sorprendió a todo el mundo, incluidos los golfistas profesionales.
Debido al efecto de posibilidad, tendemos a sobrestimar riesgos pequeños y estamos dispuestos a pagar mucho más del valor esperado para eliminarlos por completo. Los valores que las personas asignan a determinados resultados no son idénticos a los valores de las probabilidades de esos resultados, en contra del principio de la expectativa. Los resultados improbables son sobrestimados; es el efecto de posibilidad. Y los resultados casi ciertos son subestimados relativamente a la certeza actual. Cuando no ignoramos los eventos muy raros, es casi seguro que los sobrestimemos. Cuando un evento improbable se convierte en foco de atención, se le confiere mucho más peso del que merece su probabilidad. Debido al efecto de posibilidad, la preocupación no es proporcional a la probabilidad de la amenaza. La sobrestimación sistemática de resultados improbables conduce a resultados no deseables.
Puede haber búsqueda del riesgo cuando las perspectivas son negativas. Cuando consideramos la elección entre una pérdida segura y un juego con alta probabilidad de una gran pérdida, la disminución de la sensibilidad hace que la aversión a la pérdida segura sea menor, y el efecto de certeza reduce la aversión que pueda suscitar el juego. Por eso cuando las personas se ven frente a opciones muy malas juegan a la desesperada, aceptando una alta probabilidad de empeorar las cosas por una pequeña esperanza de evitar una gran pérdida. Esta forma de arriesgarse a menudo hace soportable el resultado desastroso.
El sesgo del olvido del denominador. Este sesgo ayuda a explicar por qué distintas formas de comunicar riesgos varían tanto en sus efectos. Los participantes que vieron información sobre una enfermedad que mata a 1286 de cada 10000 la juzgaron más peligrosa que aquellos a los que se habló de una enfermedad que mata al 24.14% de la población.
Tendemos a tomar decisiones conforme se nos presentan los problemas aun estando específicamente instruidos para considerarlos conjuntamente. No tenemos ni la inclinación ni los recursos mentales para hacer valer la consistencia en nuestras preferencias, y nuestras preferencias no son coherentes.
Hay que evaluar dos diccionarios musicales usados:
                                           A                                       B
Año de publicación           1993                                  1993
Número de entradas        10.000                               20.000
Estado                              como nuevo        cubiertas rotas; el resto como nuevo

Cuando se presentan los diccionarios para una evaluación separada, el A es más valorado. En una evaluación conjunta la preferencia cambia: el número de entradas no tiene significación en la evaluación separada, porque los números no son evaluables en si mismos. En la evaluación conjunta, en cambio, resulta inmediatamente obvio que el B es superior en ese atributo, y queda patente que el número de entradas es mucho más importante que el estado de las cubiertas.
La racionalidad viene servida mejor por marcos más amplios y comprehensivos, y la evaluación conjunta es obviamente más amplia que la evaluación separada. Podemos ver lo absurdo solo si se examinan dos casos conjuntamente en un marco ancho.
La exagerada influencia de la formulación, marco o contexto
Hay influencias injustificadas de una formulación sobre preferencias:
(a)   ¿Aceptaría un juego que ofrece un 10% de posibilidades de ganar 95$ y un 90% de posibilidades de perder 5$?
(b)   ¿Pagaría 5$ por participar en una lotería que ofrece un 10% de posibilidades de ganar 100$ y un 90% de posibilidades de no ganar nada?
La versión segunda atrae más respuestas afirmativas. Las pérdidas provocan sentimientos más negativos que los costes. La gente está más dispuesta a renunciar a un descuento que a pagar un recargo.
Un ejemplo clásico de influencia del marco, de la formulación, del componente emocional:
(1)   La supervivencia a un mes [de un tratamiento] es del 90%
(2)   Hay un 10% de mortalidad en el primer mes.
La equivalencia lógica de las dos descripciones es transparente. Estas descripciones producen cambios en las preferencias, incluso en las de profesionales de la medicina. Los médicos son tan sensibles al efecto marco como las personas sin formación médica alguna.
Imagine que USA se está preparando para el brote de una rara enfermedad que se espera acabe con la vida de 600 personas. Se han propuesto 2 programas alternativos para combatir la enfermedad. Suponga que las estimaciones científicas más exactas de las consecuencias de los programas son las siguientes:
            Si se adopta el programa A, se salvarán 200 personas
            Si se adopta el programa B, hay una probabilidad de 1/3 de que 600 personas se salven y una probabilidad de 2/3 de que ninguna de ellas se salve.
Una mayoría eligió el programa A. Veamos una segunda versión:
Si se adopta el programa A´, 400 personas morirán.
            Si se adopta el programa B´, hay una probabilidad de 1/3 de que nadie muera y una probabilidad de 2/3 de que 600 personas mueran.
En este caso la gran mayoría eligió el programa B. Se prefiere lo seguro por la aversión al riesgo cuando los resultados son buenos. Se rechaza lo seguro y se busca el riesgo cuando ambos resultados son negativos. Pero una cosa está clara: las preferencias entre idénticos resultados objetivos son revocadas en formulaciones diferentes. La gente no es consciente de su salvaje inconsistencia.
Consideremos dos propietarios de automóviles que desean reducir sus costes:
Adam se ha pasado de un coche que hace 12 millas por galón a otro que consume menos y hace 14 millas por galón.
La ecológicamente concienciada Beth se ha pasado de un coche que hace 30 millas por galón a otro que hace 40.
Supongamos que ambos recorren distancias iguales en un año. ¿Quién ahorra más dinero con su cambio? Intuitivamente parecería que Beth. Sin embargo, si han hecho, por ejemplo, 10.000 millas, Adam reducirá su consumo de 833 (10000/12) a 714 galones (10000/14), ahorrando 119. El consumo de Beth descenderá de 333 (10000/30) a 250 (10000/40) y ahorrará, por tanto, 83 galones. La publicación de este experimento ha hecho que en USA se vaya a  expresar –a partir de 2013- la información en galones por milla y no en millas por galones.
La única salida es volver a la sabiduría clásica del conócete a ti mismo: reconocer que no sabemos, ponerle nombre a nuestra ignorancia e ir más allá de la ignorancia que se ignora. Sólo sé que no sé nada. Como dijo Juan de Yepes: para llegar a donde no sabes has de ir por donde no sabes.