Epistemología

¿Acierta (y dónde) la futurología?

Existe un debate sobre cuánto y cómo acertaron las predicciones que se hicieron en décadas pasadas —léase, Asimov, etc.— sobre el mundo de hoy en día. Uno puede leer, por ejemplo, The Track Record of Futurists Seems … Fine, donde se defiende su éxito relativo. J. Storrs Hall tiene un libro, Where Is My Flying Car?: A Memoir of Future Past en el que se examina la cuestión más extensa y sistemáticamente y se llega a una conclusión similar, pero en la que se adivina un patrón que ayuda a distinguir las predicciones que llegaron a materializarse y las que no —así como las que quedaron muy cortas—: su dependencia en el uso de energía.

¿Podemos fiarnos de la opinión de los "expertos"? Una generalización del principio de Goodhart

Trajo Scott Alexander una entrada en su blog, WebMD, And The Tragedy Of Legible Expertise que resumo y reinterpreto aquí y que, también, invito a consultar por lo relevantes que son los ejemplos y casos de aplicación que discute y que aquí omito. En el fondo, trata sobre cómo de fiable es la opinión de los expertos y, en particular, los expertos oficialmente designados como tales; p.e., las autoridades sanitarias como Fernando Simón en su día.

Un modelo mental para el concepto: "buscar la verdad"

Aquí va un modelo sobre cómo pensar sobre la verdad y la búsqueda de la verdad. Que, además, puede extenderse a otras ideas como la justicia, etc. Estás en una ciudad desconocida y tienes una misión: ir hacia el norte. No tienes mapa, no conoces el idioma de los habitantes, etc. Solo tratas de moverte en esa dirección. Puedes usar la ubicación del sol, tratar de hacerte entender con alguien, recurrir a tu conocimiento sobre la orografía del terreno, etc.

Un marco para entender caritativamente el terraplanismo y otras anomalías epistemológicas

La creencia en la mayor parte de las cosas de las que estoy convencido está basada en la confianza en terceras personas. Así comienza el ensayo Minimal-trust investigations de Holden Karnofsky. En él discute cómo investigar esas cosas en las que uno cree a través de la confianza en terceros —a través de un proceso que denomina investigaciones de confianza mínima— y sobre todo si merece la pena. La conclusión a la que llega es:

Regresiones mentales

Dice Tyler Cowen aquí (a cuenta de algo que no viene al caso): It is better to simply file the data point away and add it to your mental regressions, but not right now to get too emotional or condemnatory about it. Esa frase resume toda una teoría —¡y una praxis!— sobre el conocimiento: Observas un hecho concreto. Modificas adecuadamente tu modelo del mundo. Necesariamente y dada la poca información que aporta un único dato, esta modificación nunca podrá ser sustancial.

¿Cómo (no) evaluar una heurística?

Esta breve entrada continua y remata la de la semana pasada. Allí discutía como la racionalidad de una heurística —incluyendo las ideologías y sin entrar a evaluar qué es racional— no puede ser nunca el criterio de bondad. Entonces, ¿qué hace buena a una determinada heurística? Podría resumir aquí la discusión de Gigerenzer sobre cómo los beisbolistas atrapan las pelotas, pero el lector interesado lo puede consultar por su cuenta —se le recomienda encarecidamente— en A Simple Heuristic Successfully Used by Humans, Animals, and Machines: The Story of the RAF and Luftwaffe, Hawks and Ducks, Dogs and Frisbees, Baseball Outfielders and Sidewinder Missiles—Oh My!

¿Se puede ser (siempre) racional?

Esta es una entrada breve —que probablemente continuaré con otra igualmente breve— acerca de si podemos o no ser siempre racionales. Está lejanamente motivada, como tantas otras, por una discusión en Twitter en la que alguien afeaba a otro no saber fundamentar racionalmente la ideología de la que hacía gala. Uno de los grandes temas de este blog es el de la interpretación de la ideología como una heurística: a falta de mayor formación e información acerca de un asunto, uno puede tirar de ideario.

Asuntos importantes

Scott Sumner publicó recientemente una lista de los que considera los (¿sus?) asuntos más imporantantes. Uno puede estar o no de acuerdo con todos (o ninguno) o el orden particular en que se muestran. Pero eso es secundario. Lo innegable, en todo caso, es que estamos sometidos a un bombardeo constante de noticias sobre asuntos de relevancia menor que nos hacen perder tiempo. Explicitar una lista de temas importantes, identificar las fuentes de información más pertinentes al respecto y profundizar en sus complejidades es usar el tiempo mucho más efectivamente.

Expertos no bayesianos

La versión pop del teorema de Bernstein-von Mises viene a decir que dos sujetos racionales que miran los mismos datos acabarán teniendo opiniones similares. Un poco más concretamente, que al acumularse la evidencia común, sus posterioris tenerán a converger independientemente de sus prioris de partida (de cumplir ciertas condiciones mínimas de regularidad). En el debate de estos tiempos sobre el mercado eléctrico (y, más en general, el energético) observamos operar a ciertos sujetos —expertos— que estando expuestos a la misma y abundantísima evidencia —datos de producción, consumo, etc.

Discusiones en grado "meta"

En términos muy gruesos, cierto tipo de discusiones pueden categorizarse en dos categorías: la positiva y la meta. La siguiente imagen permite ilustrar la diferencia a la perfección: En una discusión positiva se criticaría a quienes toman el atajo: existe una norma casí explícita —camínese por la senda provista a tal efecto—, pero unos cuantos avispados reinterpretan o desnaturalizan lo que debe hacerse y eso, necesariamente, es cuestionable. En una discusión meta, sin embargo, uno podría comenzar cuestionando desde el principio el trazado de la senda para acabar, probablemente, justificando el uso del atajo.