Epistemología

La inane danza de las abejas

Karl R. von Frisch descubrió lo que se llama la danza de las abejas: una abeja que descubre una fuente de polen desarrolla una sofisticada danza de vuelta en la colmena que permite a sus compañeras identificar la dirección y la distancia a la que se encuentra.

El problema es que la danza es totalmente inefectiva (al menos, en países como los nuestros). El motivo es el siguiente:

  • Las abejas evolucionaron en junglas del sur de Asia.
  • En la jungla, es útil poder navegar con precisión hacia las fuentes de polen.
  • En zonas como las que abundan en Europa (llanas, desprovistas de una masa forestal tupida), eso resulta mucho menos crítico: las fuentes de polen están mucho más dispersas y no están tan localizadas.
  • En consecuencia, el rendimiento de las abejas que siguen las indicaciones de la danza y el de las que no es indistinguible.

En definitiva, se trata de otra versión del cargo cult de Feynman, con sus mismas lecturas y aplicaciones.

Necesitamos entrenar y mejorar nuestros prejuicios

Participé recientemente en una reunión de un club de lectura racionalista en el que se discutieron los dos primeros capítulos del libro Superforecasting. El segundo discute, entre otras cosas, los sistemas 1 y 2 de pensamiento que popularizó Kahneman en su famoso libro Thinking, Fast and Slow.

El sistema 1 tiene bastante mala prensa: es rápido, intuitivo, irreflexivo. En una lectura superficial de los dos libros anteriores, parecería que existe una recomendación explícita de tratar de evitar razonamientos y decisiones basadas en el sistema 1 y hacer un esfuerzo permanente por activar el sistema 2. Sin embargo, esta recomendación tiene las patas cortas; por su propia naturaleza, el sistema 2 no puede ser activado tan a menudo como sería deseable: es lento, consume mucha energía y produce fatiga. Estamos abocados a recurrir al sistema 1: no podemos reemplazarlo.

Sobre los otros terraplanismos

Del terraplanismo ya se ha hablado aquí. Uno de los aspectos más importantes del terraplanismo es que se trata de un folclore intrascendente. Los terraplanistas pueden hacer su vida con absoluta normalidad y no causan mayor perjuicio ni para sí ni para los demás.

Sin embargo, existen muchas otras ideas que, siendo igualmente falsas, son perjudiciales tanto para quien las sostiene como para la sociedad que contiene dichas mentes iluminadas. Pero, por algún motivo, vuelan por debajo del radar del reproche intelectual y social.

La ciencia como "confianza verificada"

Science as Verified Trust arranca así:

Parece existir una enorme confusión acerca del papel de la confianza en la ciencia y la academia. Ingenieros como Bill Nye y propagandistas políticos no dejan de decirnos “¡Confiad en la ciencia!”. Pero, por otra parte, los racionalistas […] blanden el lema de la Real Academia, nullius in verba (No confíes en la palabra de nadie) como una espada. Creo que ambos bandos entienden incorrectamente el funcionamiento de la ciencia y la academia.

Sobre la historia de las disciplinas (y su aprendizaje)

  • Recientemente, me he visto obligado a familiarizarme ex nihilo con ciertos conceptos técnicos.
  • El texto propuesto para aprenderlos era igualmente técnico: una secuencia de proposiciones, demostraciones y ejemplos.
  • No ha habido forma de avanzar significativamente en el material hasta que no he indagado en el desarrollo histórico del asunto.
  • A partir de entonces, ¡claridad absoluta!

(Por si a alguien le sirve de algo.)

Modelos mentales

I.

Porfirio es conocido por su análsis del género y la especie. Un gato es un mamífero (género común) con ciertas características propias (diferencia específica). Esa manera de definir términos, de hecho, procede de él.

Pero no he visto aplicar el binomio género-especie al mundo de la epistemología, siendo tan patentes los paralelismos. El género vendría a ser una idea del mundo preconcebida y genérica, una priori. La especie, esa adecuación de lo general a lo particular, resultado de algún tipo de argumento bayesiano.

¿Acierta (y dónde) la futurología?

Existe un debate sobre cuánto y cómo acertaron las predicciones que se hicieron en décadas pasadas —léase, Asimov, etc.— sobre el mundo de hoy en día. Uno puede leer, por ejemplo, The Track Record of Futurists Seems … Fine, donde se defiende su éxito relativo. J. Storrs Hall tiene un libro, Where Is My Flying Car?: A Memoir of Future Past en el que se examina la cuestión más extensa y sistemáticamente y se llega a una conclusión similar, pero en la que se adivina un patrón que ayuda a distinguir las predicciones que llegaron a materializarse y las que no —así como las que quedaron muy cortas—: su dependencia en el uso de energía.

¿Podemos fiarnos de la opinión de los "expertos"? Una generalización del principio de Goodhart

Trajo Scott Alexander una entrada en su blog, WebMD, And The Tragedy Of Legible Expertise que resumo y reinterpreto aquí y que, también, invito a consultar por lo relevantes que son los ejemplos y casos de aplicación que discute y que aquí omito.

En el fondo, trata sobre cómo de fiable es la opinión de los expertos y, en particular, los expertos oficialmente designados como tales; p.e., las autoridades sanitarias como Fernando Simón en su día. Merece la pena reinterpretar todo lo que se dijo como una variación de la llamada ley de Goodhart, cuya formulación original,

Un modelo mental para el concepto: "buscar la verdad"

Aquí va un modelo sobre cómo pensar sobre la verdad y la búsqueda de la verdad. Que, además, puede extenderse a otras ideas como la justicia, etc.

Estás en una ciudad desconocida y tienes una misión: ir hacia el norte. No tienes mapa, no conoces el idioma de los habitantes, etc. Solo tratas de moverte en esa dirección. Puedes usar la ubicación del sol, tratar de hacerte entender con alguien, recurrir a tu conocimiento sobre la orografía del terreno, etc. Norte es un concepto abstracto: sabes más o menos dónde queda y además, en qué direcciones es imposible que quede.

Un marco para entender caritativamente el terraplanismo y otras anomalías epistemológicas

La creencia en la mayor parte de las cosas de las que estoy convencido está basada en la confianza en terceras personas.

Así comienza el ensayo Minimal-trust investigations de Holden Karnofsky.

En él discute cómo investigar esas cosas en las que uno cree a través de la confianza en terceros —a través de un proceso que denomina investigaciones de confianza mínima— y sobre todo si merece la pena. La conclusión a la que llega es:

Regresiones mentales

Dice Tyler Cowen aquí (a cuenta de algo que no viene al caso):

It is better to simply file the data point away and add it to your mental regressions, but not right now to get too emotional or condemnatory about it.

Esa frase resume toda una teoría —¡y una praxis!— sobre el conocimiento:

  • Observas un hecho concreto.
  • Modificas adecuadamente tu modelo del mundo. Necesariamente y dada la poca información que aporta un único dato, esta modificación nunca podrá ser sustancial.
  • No le das más importancia.

Realmente, no hay mucho más que se pueda (o deba) hacer frente a un hecho inaudito.

¿Cómo (no) evaluar una heurística?

Esta breve entrada continua y remata la de la semana pasada. Allí discutía como la racionalidad de una heurística —incluyendo las ideologías y sin entrar a evaluar qué es racional— no puede ser nunca el criterio de bondad.

Entonces, ¿qué hace buena a una determinada heurística? Podría resumir aquí la discusión de Gigerenzer sobre cómo los beisbolistas atrapan las pelotas, pero el lector interesado lo puede consultar por su cuenta —se le recomienda encarecidamente— en A Simple Heuristic Successfully Used by Humans, Animals, and Machines: The Story of the RAF and Luftwaffe, Hawks and Ducks, Dogs and Frisbees, Baseball Outfielders and Sidewinder Missiles—Oh My!. En general, dentro de la disciplina de la racionalidad con limitada, en el que se inscribe el trabajo anterior, se ofrecen respuestas a esta cuestión. Respuestas que, por lo que he visto sin pararme a repasar la literatura, suelen ceñirse al mundo de pequeñas decisiones cotidianas.

¿Se puede ser (siempre) racional?

Esta es una entrada breve —que probablemente continuaré con otra igualmente breve— acerca de si podemos o no ser siempre racionales. Está lejanamente motivada, como tantas otras, por una discusión en Twitter en la que alguien afeaba a otro no saber fundamentar racionalmente la ideología de la que hacía gala.

Uno de los grandes temas de este blog es el de la interpretación de la ideología como una heurística: a falta de mayor formación e información acerca de un asunto, uno puede tirar de ideario. Es decir, de una serie de recetas precocinadas listas para ser aplicadas. Un observador externo podría juzgar como irracional dicho comportamiento; y afearlo, incluso. Como si la racionalidad fuese la piedra de toque que permite calibrar el valor preciso de todo.