Inspirados en el experimento The Good Judgement Project, liderado por el psicólogo político Philip Tetlock, invitamos a los mejores predictores de Latinoamérica a dar sus pronósticos para las elecciones presidenciales de Chile 2025.
El proyecto original reclutó a más de 5.000 participantes de todo el mundo y les hizo preguntas durante 4 años semanalmente. Como cuenta Superforecasting, el libro que relata esta travesía, Philip Tetlock y Dan Gardner (periodista reconocido por escribir sobre pronósticos y riesgos), se apoyaron con la IARPA, un organismo de EE.UU. que desarrolla investigación de vanguardia en técnicas de inteligencia, para diseñar este experimento. ¿El plan? Mejorar la precisión de los -paupérrimos- pronósticos que entregaba la inteligencia estadounidense a la Casa Blanca y a las ramas de las Fuerzas Armadas.
En base al experimento, los autores encontraron un segmento de élite de superforecasters o superpredictores. ¿La novedad? Muchos de ellos no tenían experiencia en análisis ni investigación. Claro, había un par que venían del mundo financiero, pero también había una química farmacéutica, un consultor en management, un trabajador social y un ingeniero de software.
Eso sí, todos eran ávidamente curiosos, no tenían miedo a corregir sus predicciones anteriores con nueva información, y tendían a buscar claridad más que a imponer sus propios puntos de vista.
Nuestra visión es que el análisis sistémico de los datos y el esfuerzo por aplicarles inteligencia entregan mejores resultados que preguntas puntuales o fotografías de opinión.
El Fintualist siempre ha perseguido historias nuevas, frescas, que ojalá incorporen rigurosidad en los datos. lunae advisory, por su parte, diseña estrategias de posicionamiento institucional y narrativo en base a inteligencia política y corporativa.
Este proyecto nos juntó y por eso presentamos este concurso público y abierto (requisito único: participar de todas las rondas).
Jubilados, estudiantes; mexicanos, colombianos y chilenos; profesores, deportistas y médicos: todos pueden competir.
Cualquiera puede ser nuestro próximo superforcaster.
¿Cómo funciona?
Solo tienes que estimar la probabilidad (expresada en porcentaje) de que un hecho específico –relacionado a las elecciones en Chile– ocurra. Y como dijimos arriba, esto es clave: para participar por los premios, es necesario hacer estimaciones todas las semanas hasta el viernes 14 de noviembre, que se cierra el concurso. No te preocupes, te lo recordaremos.
Puedes usar lo que quieras como fuente de información: encuestas, publicaciones de acceso abierto o pagado, inteligencia humana, redes sociales, prensa, intuición.
Lo que quieras.
Y algo que te puede parecer curioso pero es importante: las preguntas de cada formulario siempre serán las mismas. Así se puede analizar cómo evolucionan las respuestas a medida que se acerca la fecha de las elecciones.
Semanalmente compararemos los pronósticos anónimos de los participantes con un análisis.
Cómo participar
Lo primero, es recordarte que para participar por los premios, necesitas hacer predicciones todas las semanas hasta el cierre del concurso. Para hacer tu primera predicción, simplemente llena el siguiente Google Form.
Guardaremos tus datos (tu correo básicamente) para poder contactarte si es que ganas y registrar tus respuestas. Todas las semanas encontrarás el link en la newsletter del Fintualist en la sección de sobremesas. También iremos actualizando este mismo post con los links a las predicciones de cada semana, que dejaremos al final del texto.
Para esta primera tanda daremos un poco más de plazo: tienes hasta el jueves 2 de octubre, a las 18:00 para contestar.
¿Cómo se gana?
Igual que en el Good Judgement Project, usaremos el puntaje Brier para evaluar a cada participante. La persona con el menor puntaje gana. Para el tipo de preguntas que vamos a hacer, el puntaje Brier se saca calculando el promedio del error cuadrático de todos los eventos pronosticados por cada persona.
A la fórmula
(fᵢ − oᵢ)² se le llama error cuadrático o error al cuadrado.
Sirve para medir cuánto difiere la predicción (fᵢ) del resultado real (oᵢ). Al elevar la diferencia al cuadrado, se le da mayor peso a los errores grandes, lo que castiga a las predicciones que están muy lejos de la realidad.
Queda más claro con un ejemplo.
Imaginemos que existió otro concurso de predicciones de eventos que ya pasaron. Cuando un evento sí ocurre, el resultado real en la fórmula (oᵢ) se considera 1, cuando no ocurre es 0. En este concurso ficticio están los siguientes dos eventos:
- E₁: “Elon Musk completó la compra de Twitter (hoy X)”. → ocurrió ⇒ o₁ = 1
- E₂: “Donald Trump anunció su candidatura presidencial para 2024”. → ocurrió ⇒ o₂ = 1
Supongamos las predicciones de Florencia, editora de Fintualist fueron las siguientes:
f₁ = 80% para el E1 ("Elon Musk completó la compra de Twitter").
f₂ = 30% para E₂ (“Donald Trump anunció su candidatura presidencial para 2024).
El cálculo del error cuadrático sería el siguiente:
- Error E₁: (f₁ − o₁)² = (0,80 − 1)² = (−0,20)² = 0,04
- Error E₂: (f₂ − o₂)² = (0,30 − 1)² = (−0,70)² = 0,49
Y el promedio de estos dos errores sería el Puntaje Brier:
0,04+0,49/2= 0,265
Recuerda: más bajo es mejor.
Premios
- Primer lugar: curso para hacer predicciones precisas, del mismísimo Good Judgement Project (USD99)
- Segundo lugar: el libro Superpronosticadores, de Philip Tetlock y Dan Gardner
- Tercer lugar: Libro El Cisne Negro de Nicholas Taleb
Consejos prácticos para los concursantes
- Fuentes de información
Pese a que el concurso no establece ninguna restricción sobre el tipo de fuente a utilizar, una investigación demostró que, en un concurso reducido y de corta duración como este, hay fuentes notoriamente más efectivas que otras.
Por ejemplo, el uso de la información presente en medios de comunicación y sitios oficiales con actualización periódica, así como blogs o páginas web independientes, mejoró significativamente la precisión de los pronósticos. En cambio, el uso de publicaciones académicas, redes sociales y otras fuentes no alteró la precisión del resultado entre quienes las utilizaron y quienes no.
Teclock y Gardner, los autores del libro Superforcasting que inspiró este concurso, dicen que que prácticas tan básicas como estar atentos a las alertas de Google pueden mejorar significativamente el nivel de los pronósticos.
También, Google News puede ser de gran ayuda. De hecho, un hack común que se suele olvidar, es usar los operadores de Google para filtrar mejor y más rápido la búsqueda. Al final del post les dejamos un Anexo los más típicos con ejemplos.
- Sesgos
El segundo consejo práctico para el concurso es considerar los famosos sesgos: en estos son los más recurrentes que te convendría esquivar:
2.1. Exceso de confianza (Overconfidence bias) Tendemos a asignar probabilidades extremas (muy cercanas a 0% o 100%) sin tener evidencia suficiente. A veces confiamos demasiado en nuestra primera intuición.
2.2. Anclaje (Anchoring bias) ¿Te has aferrado a un primer número o idea que supiste de alguien? En este caso, la cifra de la última encuesta o un titular reciente pueden jugarte una mala pasada: intenta calibrar ese primer juicio. Cuando fijes un punto de referencia, ten en cuenta que podría estar distorsionado.
2.3. Confirmación (Confirmation bias) Has pensado mucho en una hipótesis. Crees que es brillante. ¡Cuidado! Tendemos a buscar datos que confirmen esa hipótesis que vemos tan perfecta. Intenta contradecirla con otros datos; convérsarla con alguien que piense muy distinto a ti.
2.4. Pensamiento en blanco o negro (All-or-nothing thinking) Subestimar la posibilidad de escenarios intermedios o de “grises” en contextos complejos.
2.5. Disponibilidad (Availability bias) Vas camino al trabajo. Ves un accidente de auto. Lo comentas con alguien en la oficina y te dice que le ocurrió lo mismo la semana pasada. ¿Será que aumentó en una semana la prevalencia de accidentes? ¡No necesariamente! El que sea una experiencia cercana, dista mucho de ser una experiencia mayoritaria.
2.6. Sesgo de endorso (Endowment bias o status quo bias) Nos cuesta cambiar la inercia. Puede que lleves semanas sin ajustar tu pronóstico de candidatos presidenciales… ¡Atención! A veces una simple equivocación, un post algo torpe o un nuevo vocero mesiánico pueden obligarte a ajustar las proyecciones. Tenlo en mente.
¿Cómo mitigar y prevenir estos sesgos?
La primera clave es estar conscientes en todo momento de que estos sesgos son una ventaja evolutiva. Tendemos a utilizarlos automáticamente para reducir el enorme esfuerzo que significa tomar decisiones y, por lo mismo, es biológicamente imposible deshacerse de ellos. Eso sí, podemos prevenirlos y mitigarlos. Acá verás algunas técnicas ya probadas:
3.1. Entrenamiento en probabilidades calibradas. Lleva los rangos verbales a números. En vez de "casi seguro", "muy probable" o "quizá", piensa en 90%, 70% o 20% (o la probabilidad que le asignes).
Además, trata de reducir los rangos a lo más preciso posible: si tienes la sensación de que un hecho está entre 70% y 80%, entonces intenta dar con ese número: ¿77%?, ¿73%?
3.2. Técnica de descomposición (Fermi-ization). Separar una pregunta compleja en subcomponentes estimables.
Ejemplo en el contexto de este concurso:
“¿Qué probabilidad tiene X de ganar la elección presidencial?” → dividir en:
- ¿Probabilidad de pasar a segunda vuelta?
- ¿Probabilidad de que enfrente a un candidato más débil?
- ¿Probabilidad de que aumente su aprobación en la última semana?
3.3. Averiguación activa (Outside View). Debemos intentar salir un poco del caso o la pregunta particular que estamos viendo. Para eso, es bueno incorporar estadísticas base (por ejemplo, promedio de cada candidato en los últimos 3 meses en las 5 encuestas más reconocidas), experiencia histórica (¿cómo se han comportado las elecciones en Chile en otros escenarios?) y comparación con casos similares (¿Ha habido un debate presidencial similar en otros países recientemente? ¿Qué ha pasado en esos casos?). Así, podemos calibrar la información más reciente que nos puede inducir a error.
3.4. Pre mortem / post mortem contrafactuales. Imagina que tu predicción falló, ahora trata de explicar por qué (pre mortem). Luego, haz lo mismo si acertaste (post mortem). ¿Por qué hacerlo incluso si acerté? Porque tal vez te hace cuestionar si tuviste suerte, si revisaste fuentes que antes no habías consultado, etc. Es una forma de buscar y reforzar las buenas prácticas.
Este tipo de ejercicios fortalece el pensamiento contrafactual, reduce el sesgo de confirmación y mejora la capacidad adaptativa.
3.5. “Extremar” predicciones con cuidado. Si tienes evidencia fuerte, puedes ir más allá del 50% en tu pronóstico. Pero si no, mantente moderado: las predicciones más extremas deben merecerse.
3.6. Feedback con puntuación y comparaciones. Como te dijimos al principio, todas las semanas subiremos al Fintualist una comparación y análisis de pronósticos anónimos de todos los participantes. Esta información puede ser útil para mejorar tu pronóstico en el tiempo.
Eso es todo lo que necesitas saber para participar y quizás ganarte el título de Superforecaster en Chile.
Si tienes comentarios sobre el concurso o dudas de sus bases, escríbenos a cartas@fintual.com