Daniel Kahneman: pensamiento rápido y lento
Eduardo Zugasti
Eduardo Zugasti
Daniel Kahneman (1934-) es un psicólogo norteamericano-israelí, actualmente profesor emérito en Princeton e incluido hace poco en la lista de 100 pensadores globales más influyentes por la revista Foreign Policy. Aunque Kahneman ha recibido su Nobel en 2002 junto con Amos Tversky por su contribución a la teoría económica, las repercusiones de su trabajo son muy amplias, y prácticamente no hay un área de las ciencias humanas que pueda permitirse ignorarlas.
Su última publicación, Thinking. Fast and slow, orientada a no especialistas, abarca varias décadas de trabajo como psicólogo experimental y es uno de los libros científicos más comentados (y vendidos) de este año.
Dos sistemas, un sólo cerebro
No intentes resolver este acertijo y procura emplear la intuición:
Un bate y una pelota cuestan $1.10
El bate cuesta un dólar más que la pelota.
¿Cuánto cuesta la pelota?
La respuesta de 10¢ se presenta como una intuición rápida, potente y atractiva, pero es incorrecta. Para llegar a la solución correcta, 5¢, muchos tendremos que recurrir al lápiz y al papel, transformando el acertijo en una ecuación matemática. Tendremos que recurrir a la forma más lenta y fatigosa de pensar que permite nuestro cerebro. Algunos psicólogos consideran que este tipo de test es un predictor más válido sobre la inteligencia que los test sobre cociente intelectual corrientes. En este caso, nos sirve para ilustrar que las intuiciones pueden ser erróneas, no importa lo poderosas que parezcan.
Aunque tenemos una sola mente, no tenemos una sola forma de decidir. Daniel Kahneman propone entender la toma humana de decisiones partiéndola en dos “sistemas” principales. El Sistema 1 es un esclavo de las emociones y actúa “rápida y automáticamente, con pequeño o ningún esfuerzo y sin el sentimiento de un control voluntario.” El Sistema 2, por contra, funciona como un agente racional que “concentra con esfuerzo la atención hacia las actividades mentales que así lo demandan, incluyendo las computaciones complejas. Las operaciones del Sistema 2 están asociadas a menudo con la experiencia subjetiva de la agencia, la elección y la concentracion.”
La mayoría de nuestros juicios diarios son obra del Sistema 1, ocurren de forma automática, intuitiva y emocionalmente, y nos permiten desenvolvernos de forma razonable en nuestra vida práctica. Pero el Sistema 1 también genera todo tipo de intuiciones erróneas con consecuencias triviales o catastróficas. Solamente cuando entra en juego el Sistema 2, postergando las gratificantes sugerencias del sistema emocional, y sólo tras invertir un gran esfuerzo cognitivo, podemos intentar resolver los problemas difíciles o contraintuitivos.
Hacia un nuevo concepto de racionalidad
Kahneman sugiere que examinemos la naturaleza de la racionalidad a través de sus errores más que a través de sus triunfos. Estos errores o sesgos cognitivos tienen la virtud de aparecer de forma inadvertida para nuestra mente consciente. Tienen además un carácter irresistible en los seres humanos psicológicamente sanos y se dan sistemáticamente si concurren las circunstancias adecuadas. Para poner algunos ejemplos (la lista de errores cognitivos sistemáticos es bastante grande), la ilusión de causalidad se da de forma natural cada vez que inferimos erróneamente que dos eventos naturales están intencionalmente relacionados entre sí (el experimento de Heider y Simmel es una temprana ilustración experimental de este principio), un descubrimiento que arroja mucha luz sobre el origen del pensamiento religioso. El efecto Halo ocurre cuando tendemos a atribuir características excesivamente positivas o negativas en una persona basándonos en pistas parciales pero emocionalmente atractivas, lo cual ayuda a explicar por qué el público ama irracionalmente a las estrellas de cine, o por qué hemos convertido a Steve Jobs en una especie de santo laico. La ilusión de validez afecta particularmente a los expertos en entornos difícilmente predecibles, como la política y las finanzas, provocando un exceso de confianza en predicciones infundadas y poniendo serias dudas sobre la eficacia de reputados especialistas y “pundits” mediáticos.
El Sistema 1 está preparado para creer, no para dudar y tiene tanto miedo de la incertidumbre y del azar que a menudo salta rápidamente a conclusiones precipitadas pero capaces de convertirse en buenas historias. Este hecho psicológico ayuda a entender por qué el fanatismo y la seguridad dogmática a menudo se sustentan en la ignorancia, o en evidencias claramente insuficientes, y por qué el escepticismo (una ardua operación del Sistema 2) sigue siendo tan costoso e impopular.
No es sólo la inteligencia, sino la racionalidad, es decir, la capacidad para amonestar a la parte más vaga de nuestro pensamiento, la propiedad que es realmente capaz de desvelar, y en algunos casos domar, los sesgos cognitivos naturales. Desde esta perspectiva, una persona “racional” no es ya aquella que tiene una visión del mundo más consistente, ni mucho menos la que es capaz de contar mejores historias. Tampoco es más racional quien rechaza las emociones en nombre de una inexistente razón desencarnada, sino aquella persona que es capaz de examinar sus propios prejuicios y de asumir que errar es natural. Una difícil empresa que, al fín y al cabo, hubiera firmado el mismo Sócrates: “Una vida sin examinar no merece ser vivida.”
fuente: http://www.terceracultura.net/tc/?p=3703
No hay comentarios:
Publicar un comentario