Actualizado el martes, 24 enero, 2023
✅ Para saber más sobre cómo la estadística y los sesgos cognitivos nos pueden ayudar a descubrir la verdad en un caos de mentiras y manipulación mediática, te recomendamos los retos formativos de Comunicación Social EN+
La estadística es una poderosa herramienta para entender el mundo que nos rodea. Proporciona una forma de analizar datos, identificar tendencias y sacar conclusiones significativas de ellas. Las estadísticas se pueden utilizar para comprender el comportamiento de las personas, las organizaciones y los mercados. También se puede utilizar para medir el impacto de las políticas e intervenciones en varios aspectos de nuestras vidas. Al comprender las estadísticas, podemos obtener información sobre cómo funciona el mundo y tomar mejores decisiones que conduzcan a resultados positivos.
The Data Detective (escrito por Tim Harford) es una guía práctica e inteligente para comprender las formas en que las estadísticas, y nuestras reacciones ante ellas, distorsionan y oscurecen la realidad. Utilizando investigaciones psicológicas y ejemplos esclarecedores, revela algunas de las formas en que nuestro cerebro influye en cómo vemos los datos y las estadísticas y cómo sacamos conclusiones incorrectas como resultado. Al separar nuestros sesgos cognitivos y conceptos erróneos, obtenemos la capacidad de ver los datos y, a su vez, el mundo por lo que realmente es.
Tim Harford es economista, autor y presentador de la premiada serie de BBC Radio 4 More or Less. Escribe la columna «The Undercover Economist» para el Financial Times y es miembro honorario de la Royal Statistical Society. Ha escrito varios libros sobre economía, incluidos The Undercover Economist y Fifty Things That Made the Modern Economy.
Para ver cualquier tipo de datos con una mente clara y un enfoque en los hechos, recuerde algunas reglas importantes. Estos incluyen observar sus reacciones emocionales a la información, ya sea visual o verbal, y estar dispuesto a actualizar sus opiniones frente a nuevas pruebas. También debe observar el panorama general de una estadística, asegurándose de examinar el contexto general e identificar posibles distorsiones, exclusiones o descuidos. El objetivo final que une todo esto es ser siempre curioso: buscar profundamente los hechos y seguir haciendo preguntas.
Elimine las medias verdades y comience a comprender realmente las estadísticas
¿Sabías que las cigüeñas dan a luz a bebés? Las estadísticas lo demuestran: en países con mayor población de cigüeñas, nacen más bebés que en países con pocas poblaciones de cigüeñas.
Esto, por supuesto, no es cierto: las cigüeñas no dan a luz bebés. Pero es muy fácil hacer que parezca que sí, utilizando argumentos estadísticos defectuosos. La facilidad de mentir con las estadísticas ha hecho que muchas personas, comprensiblemente, desconfíen de ellas.
El problema es que sin estadísticas, nunca hubiéramos descubierto que fumar cigarrillos te hace 16 veces más propenso a contraer cáncer de pulmón o que el COVID-19 se transmite de persona a persona.
Estos consejos científicos le darán diez estrategias para comprender las estadísticas, para que pueda disfrutar de la sabiduría de lo bueno mientras descarta con confianza lo malo.
Observe sus reacciones emocionales a los datos y la información
Abraham Bredius fue un crítico de arte, coleccionista y experto de renombre mundial en pintores holandeses. Tenía una experiencia especial en lo que respecta a Johannes Vermeer, el maestro del siglo XVII reverenciado por obras como Chica con un pendiente de perla.
Un día de 1937, un abogado llamado Gerard Boon visitó a Bredius para mostrarle una pintura de Vermeer recientemente descubierta llamada Cristo en Emaús. Bredius se asombró de inmediato, pero aún así tuvo cuidado. Inspeccionó la pintura en busca de signos de falsificación… y no encontró ninguno.
Bredius declaró a Emaús un Vermeer genuino, tal vez incluso su mejor trabajo. También dijo que cuando vio la pintura, «tuvo dificultades para controlar sus emociones». Desafortunadamente, las intensas emociones de Bredius fueron su perdición, porque Cristo en Emaús era totalmente falso.
Emaús ni siquiera era una pintura muy buena, pero aun así, Bredius se dejó engañar. Quería tanto creer que Emmaus era un Vermeer genuino que sus emociones nublaron su razonamiento lógico. Desafortunadamente, es probable que la mayoría de las personas se engañen de la misma manera cuando se les presenta información que despierta sus emociones.
Algunas estadísticas no provocan reacciones emocionales: nadie se molesta cuando escucha que «Marte está a más de 30 millones de millas de la Tierra». Pero otras cuestiones, en particular las políticas, nos hacen surgir fácilmente.
Cuando eso sucede, es probable que ignoremos la información si no se ajusta a nuestras creencias preconcebidas o que la usemos como evidencia si lo hace. La experiencia en un tema no nos hace inmunes a ese efecto; de hecho, algunos estudios han demostrado que es incluso menos probable que los expertos cambien sus opiniones ante la evidencia contradictoria. Eso es porque ambos están motivados para evitar información incómoda y son buenos para producir argumentos a su favor.
Por tanto, nadie es inmune al razonamiento motivado. Afortunadamente, seguir un par de protocolos simples puede ayudarlo a reducir la probabilidad de hacerlo.
Comienza notando cómo se siente cuando ve una afirmación estadística. ¿Está indignado, lleno de alegría o en negación? Después de notar sus emociones, haga una pausa y reflexione para ver si se está esforzando por llegar a una conclusión en particular. Su compromiso de sopesar los hechos lo ayudará a pensar con mayor claridad y, como beneficio adicional, también dará un ejemplo de pensamiento claro a los demás.
Aprenda cuándo es mejor confiar en una afirmación estadística o en una experiencia personal
Cuando el autor consiguió su trabajo como presentador en un programa de radio de la BBC, inmediatamente se enamoró del trabajo. Pero le gustaba menos el viaje matutino del este al oeste de Londres. Tuvo que viajar en un autobús lleno de gente y luego en el metro, un tren subterráneo, que prácticamente estaba a punto de estallar.
Debido a esas mañanas miserables, el autor estaba interesado en aprender más sobre lo ocupado que estaba realmente el sistema de transporte público de Londres. Se sorprendió al descubrir que la ocupación promedio de un autobús de Londres era de solo 12 personas, y en el metro, menos de 130.
Esas estadísticas se sintieron totalmente equivocadas; contradecían completamente la experiencia personal del autor. ¿Que esta pasando?
Sabemos que nuestras creencias y emociones personales a veces pueden distorsionar nuestra percepción de una afirmación estadística. Pero a veces, las experiencias personales pueden ser tan informativas como las estadísticas. La clave es encontrar un equilibrio entre los dos.
Comienza analizando la calidad de la declaración estadística en sí determinando su origen. En el caso del transporte público de Londres, los números provienen de una organización gubernamental llamada Transport for London, o TfL, que recopila datos de las personas que usan sus tarjetas de pago antes de abordar.
Entonces, los orígenes de los datos aquí parecen creíbles. A continuación, debemos analizar por qué la experiencia personal (en este caso, la del autor) puede diferir de las estadísticas.
Aquí, las matemáticas involucradas en el cálculo de promedios son relevantes. Digamos que hay una línea de trenes con diez trenes al día. Uno de esos trenes transporta mil pasajeros, mientras que los otros nueve transportan cero. La ocupación promedio de cada tren en esa línea sería de 100 personas, muy cerca del promedio real en Londres. De modo que las estadísticas de TfL no mentían, pero no decían nada sobre las experiencias personales de las personas apiñadas en esos trenes tan abarrotados.
En este caso, las estadísticas y la experiencia personal fueron igualmente informativas. Pero hay ocasiones en las que uno u otro funciona mejor.
Las estadísticas suelen ganar cuando se trata de problemas relacionados con la salud, ya que las estadísticas muestran el resultado más probable para la mayor cantidad de personas. Por ejemplo, fumar cigarrillos todavía te hace 16 veces más propenso a contraer cáncer de pulmón, incluso si tu abuela fumadora empedernida de 90 años está bien.
Por otro lado, las estadísticas también pueden mentir, especialmente cuando se trata de cosas como evaluaciones de desempeño. Es mucho más probable que las personas manipulen, falsifiquen o distorsionen los datos cuando está en juego un beneficio monetario o profesional, por lo que es preferible juzgar el desempeño caso por caso.
La verdadera comprensión proviene de saber cuándo las estadísticas, la experiencia personal o una combinación de ambas son las más relevantes.
Considere cuidadosamente lo que realmente mide una estadística
A finales de la década de 2010, el Reino Unido parecía estar en medio de una crisis de mortalidad infantil. Las tasas de muerte prematura variaron sustancialmente en todo el país y, al principio, no estaba claro por qué.
Resultó que la diferencia en las tasas de mortalidad resultó en última instancia de diferencias en la definición, específicamente, si un bebé nacido a las 22 o 23 semanas debe registrarse como un aborto espontáneo o un nacimiento vivo seguido de una muerte prematura. En Londres, esos embarazos se registraron como abortos espontáneos. En las Midlands inglesas, por el contrario, se los consideró nacidos vivos. La diferencia fue suficiente para explicar la brecha en la tasa de mortalidad en los hospitales de Londres frente a los de Midlands.
Esta historia apunta a la importancia de descubrir lo que realmente dice una afirmación más allá de la superficie.
Medir algo como la mortalidad infantil parece simple en la superficie: cuente los bebés que murieron. Pero profundice un poco más y se volverá confuso porque la diferencia entre un feto y un bebé es compleja y, a menudo, muy polémica.
Esto tiene una influencia real en el campo de la estadística, que se trata, en esencia, de medir o contar cosas. Sin embargo, cuando vemos una estadística, rara vez nos preguntamos exactamente qué o quién se está contando.
Considere la siguiente afirmación: Los niños que juegan videojuegos violentos tienen más probabilidades de ser violentos en la realidad. No está claro qué mide esa afirmación. Por ejemplo: ¿Qué se considera un videojuego violento? ¿Con qué frecuencia juegan estos niños a videojuegos? ¿Y cómo midieron exactamente los investigadores la violencia?
La oscuridad de las definiciones puede ayudar a las personas cuyo objetivo es distorsionar los hechos, tal vez para promover una perspectiva política particular.
Por ejemplo, considere una propuesta de política para una «congelación de cinco años de la inmigración no calificada», publicada por un grupo de cabilderos del Brexit en 2017. Pero, ¿qué significa exactamente «no calificada»? En este caso, el término incluía a cualquier persona que ganara un salario inferior a 35.000 libras esterlinas. Eso evitaría la inmigración para la mayoría de enfermeras, maestros de escuela primaria, asistentes legales y farmacéuticos. Aún puede apoyar o rechazar la política, pero sin duda le ayudará a saber exactamente quién se considera «no calificado» en virtud de ella.
Por lo tanto, recuerde cuestionar las definiciones utilizadas en una afirmación antes de aceptarla o refutarla. Y si ve una afirmación de que la desigualdad ha aumentado, primero pregunte: ¿Desigualdad de qué?
Ponga las afirmaciones en contexto antes de sacar conclusiones
Los periódicos de Londres gritaron titulares alarmantes en abril de 2018. Todos leyeron alguna variación de: «¡La tasa de asesinatos de Londres es más alta que la de Nueva York por primera vez!»
Dejando de lado el hecho de que la definición de «asesinato» es diferente en cada ciudad, la afirmación era técnicamente cierta. Hubo 14 asesinatos en la ciudad de Nueva York en febrero de 2018, mientras que en Londres hubo 15.
¿Qué podemos concluir de esa estadística? Bueno, de verdad, nada en absoluto. Los números por sí solos no nos dicen mucho. Para comprender lo que está sucediendo realmente en el mundo, debemos considerar el contexto y la perspectiva más amplios desde los que se presentan los datos.
Retrocedamos y consideremos algunos hechos sobre los asesinatos en Londres versus Nueva York. En 1990, Londres tuvo 184 asesinatos; Nueva York tenía más de diez veces ese número, 2262. Desde entonces, las tasas de homicidios han caído en ambos lugares. En Londres en 2017, hubo 130 asesinatos en total. En Nueva York, hubo 292, una mejora significativa.
Con este contexto en mente, comenzamos a comprender mejor la situación real. Debido a que Nueva York es ahora mucho más segura, su tasa de homicidios a veces cae por debajo de la de Londres. Londres no ha caído repentinamente en un caos plagado de crímenes e infestado de pandillas: ¡ambas ciudades son, de hecho, más seguras que antes!
Desafortunadamente, el entorno de noticias actual da prioridad a las noticias inmediatas y del momento que oscurecen el panorama general. ¿Cómo serían las noticias si se publicaran cada 25 años? Las historias podrían ser sobre el surgimiento de la World Wide Web y el surgimiento de China como una potencia global, y ciertamente no sobre las tasas de homicidios en Londres y Nueva York en un solo mes.
Observar escalas de tiempo más amplias puede ayudarlo a comprender el significado real de una estadística, pero las escalas numéricas amplias también son útiles.
Considere, por ejemplo, el costo del muro fronterizo que Donald Trump quería construir entre Estados Unidos y México: $ 25 mil millones. En la superficie, ese número parece grande. Pero compárelo con todo el presupuesto de defensa de EE. UU. De poco menos de $ 700 mil millones al año, o alrededor de $ 2 mil millones al día: en ese contexto, el muro costaría aproximadamente dos semanas de operaciones militares de EE. UU.
Usted, por supuesto, aún puede decidir que el costo del muro o la tasa de asesinatos en Londres es motivo de alarma. Pero comprender el contexto completo hará que su opinión esté mucho mejor informada.
Incluso la investigación científica puede verse influenciada por sesgos
¿Has oído hablar del famoso experimento de degustación de mermeladas realizado por los psicólogos Sheena Iyengar y Mark Lepper? En él, los investigadores instalaron un puesto de degustación de mermeladas que a veces ofrecía 24 variedades de mermelada y otras seis. Una vez que los clientes probaron la mermelada, se les dio un cupón para comprarla con descuento. En última instancia, la pantalla más grande atrajo a más clientes, pero solo el tres por ciento de ellos terminó comprando la mermelada. Mientras tanto, el 30 por ciento de los clientes compró la mermelada en la pantalla más pequeña. Los psicólogos concluyeron que las personas responden mejor a menos opciones y peor a más opciones.
Desde su publicación, el estudio se ha convertido en una sensación. Puede encontrar los resultados en todas partes, desde artículos de psicología pop hasta TED Talks. Pero, ¿podemos confiar en ellos?
Resulta que la investigación sobre la elección es mucho menos concluyente de lo que sugeriría el estudio original de la mermelada. Los artículos publicados sobre el tema tenían más probabilidades de encontrar que, si bien ofrecer muchas opciones tenía un efecto importante, podía ser muy positivo o muy negativo. Los artículos no publicados tenían más probabilidades de no encontrar ningún efecto. Esos resultados se sumaron a un efecto promedio espectacularmente emocionante de cero.
Puede resultar desconcertante pensar en ello, pero resulta que las publicaciones académicas no son menos vulnerables a ciertos sesgos que las noticias.
Un ejemplo es el sesgo de publicación , que dice que es mucho más probable que las revistas publiquen experimentos con resultados sorprendentes o contrarios a la intuición que aquellos con resultados no concluyentes . Después de todo, nadie quiere leer un estudio con resultados monótonos y aburridos.
Además, las carreras y los ingresos de muchos investigadores están vinculados a su capacidad para realizar y publicar investigaciones. Esta norma crea incentivos perversos para que manipulen datos para que parezcan más importantes de lo que son en realidad. Como resultado, las ciencias sociales están lidiando con una “crisis de replicación” en la que un gran número de estudios destacados resultan no ser replicables.
Hasta que se resuelva este problema, vale la pena considerar cuán confiable es un estudio antes de promocionar sus resultados. Primero, tenga una idea de si el estudio tiene un sentido intuitivo o se siente más como un valor atípico extraño. Luego, verifique si hay muchos otros estudios que saquen conclusiones similares. Estos sencillos pasos pueden ayudarlo a evitar la difusión de información engañosa o incorrecta.
Las estadísticas y los datos no siempre son aplicables por igual a todas las personas
¿Cuánta presión siente la gente para ajustarse a sus compañeros? Hay una gran cantidad de investigaciones que sugieren que la respuesta es: muchas.
En la década de 1950, el psicólogo Solomon Asch realizó un estudio en el que mostró a los sujetos dos imágenes. Uno representaba tres líneas de diferentes longitudes y el otro representaba una «línea de referencia». Su tarea consistía simplemente en identificar cuál de las tres líneas tenía la misma longitud que la línea de referencia.
Sin embargo, había una trampa: los sujetos estaban rodeados de «plantas», es decir, personas colocadas allí para elegir deliberadamente la línea incorrecta. Las elecciones de los sujetos estuvieron influenciadas por los errores de sus compañeros una cantidad significativa de tiempo.
Estos experimentos fueron elegantes y fascinantes, pero no podemos concluir que Asch descubrió alguna verdad universal sobre la naturaleza humana. Esto se debe a que su investigación se limitó a una población específica: estudiantes universitarios estadounidenses blancos de los años cincuenta.
Recientemente, los psicólogos se han dado cuenta del problema de que muchos estudios limitan su investigación a poblaciones muy específicas. En particular, los experimentos tienden a realizarse en temas que se consideran «EXTRAÑOS», un acrónimo que significa occidental, educado y de democracias ricas industrializadas.
Entonces, ¿eso significa que las conclusiones de Asch fueron inexactas? Bueno, para 1996, su estudio había inspirado 133 estudios de seguimiento, y los resultados generales se mantuvieron. La mayoría de los estudios de seguimiento no fueron muy diversos, pero los que sí mostraron algunos efectos interesantes, por ejemplo, que las personas eran más propensas a conformarse con grupos de amigos que con extraños, y que los grupos de mujeres eran más propensos para conformarse que los hombres.
No debería ser difícil obtener una muestra representativa de la población cuando se trata de investigación académica. Pero obtener datos representativos es mucho más difícil en otras áreas, particularmente en las encuestas.
El problema principal con las encuestas es el sesgo de la muestra o el hecho de que algunos tipos de personas tienen más probabilidades de responder a las encuestas que otros. Otro problema es el lugar particular del que se extraen los datos. Por ejemplo, una encuesta de usuarios estadounidenses de Twitter puede sobrerrepresentar a personas jóvenes con educación universitaria, que son más propensas que otras a usar la plataforma.
Tenga en cuenta estos hechos cuando encuentre un dato y siempre hágase la pregunta: ¿Quién podría faltar en esta muestra? Haga todo lo posible por investigar, porque es posible que encuentre el punto ciego.
Mantenga un escepticismo saludable hacia los algoritmos y los macrodatos
Tras su lanzamiento en 2009, Google Flu Trends se promocionó como una herramienta revolucionaria para rastrear la propagación de la influenza estacional. Al contar las búsquedas de «síntomas de la gripe» y «farmacias cercanas», Google podría estimar con precisión los nuevos casos de gripe diarios más rápido que los CDC.
Tendencias de la gripe de Google fue en muchos sentidos el heraldo de una nueva era: la de los «macrodatos» y los algoritmos. Big data se refiere a la información que producimos cuando navegamos por la web, pagamos con tarjetas de crédito o usamos teléfonos móviles. Los algoritmos son programas de computadora que se utilizan a menudo para encontrar patrones en conjuntos de datos.
Tendencias de la gripe de Google utilizó macrodatos y algoritmos para, al parecer, generar buenos datos sobre las tendencias de la gripe. Sin embargo, solo cuatro años después de que se anunció el proyecto, colapsó por completo. ¿Por qué?
Google Flu Trends colapsó y se quemó cuando, un invierno, sugirió que había un brote severo cuando no lo había. En un momento, estimó que la propagación de la gripe fue dos veces peor que lo sugerido por los datos oficiales de los CDC.
Entonces, ¿Cual fue el problema? Principalmente, Google no sabía, de hecho, cuál era la conexión entre los términos de búsqueda y la propagación de la gripe. El algoritmo buscaba patrones en los datos, pero encontró conexiones que involucraban cosas no relacionadas con la gripe, como «baloncesto de la escuela secundaria». Como resultado, el algoritmo se volvió menos un detector de gripe y más un detector de invierno de uso general. Eso significó que no pudo detectar un brote de gripe de verano que ocurrió en 2009.
Por supuesto, a veces hay casos en los que es algoritmos de confianza por valor de más de estimaciones producidas por el hombre. Por ejemplo, hay una gran cantidad de evidencia que sugiere que los jueces humanos no son totalmente objetivos ni consistentes al dictar sentencias penales. Los algoritmos son mucho mejores para producir oraciones justas al comparar casos con otros similares en el pasado.
A veces, los algoritmos producirán resultados precisos y de calidad, y otras no. En consecuencia, tendremos que juzgar cada algoritmo caso por caso y no dar por hecho su precisión.
Hacer esto puede ser difícil porque muchas empresas no quieren revelar los secretos detrás de sus motores de generación de dinero. Pero si a todo el mundo se le permite mirar bajo el capó de un algoritmo, será mucho más probable que comprendamos cómo están tomando las decisiones que toman, y cómo pueden mejorar.
No descarte la importancia y utilidad de las estadísticas oficiales
La Oficina de Presupuesto del Congreso se estableció en los EE. UU. En 1974 para proporcionar al Congreso informes sobre los costos presupuestarios de las propuestas de políticas. Como lo describió un funcionario de la CBO, el proceso fue como dejar caer una factura en una alcantarilla y luego enviar las estimaciones de costos 20 minutos más tarde: objetivo y no controvertido.
Pero no todos los presidentes aceptaron con gracia las estimaciones de la CBO. El primer presidente en quejarse fue Jimmy Carter, que quería mejorar la eficiencia energética de Estados Unidos. Pero la CBO evaluó las propuestas de Carter para hacerlo y descubrió que no funcionarían tan bien como se había planeado. La administración Carter estaba descontenta porque la CBO «no estaba ayudando». Pero ese era precisamente el punto: las mejores organizaciones gubernamentales presentarán estadísticas con precisión, hagan o no felices a los políticos.
Cuando los políticos intentan distorsionar o desacreditar el trabajo de las agencias de estadística, puede resultar en un desastre.
Tomemos el ejemplo de Grecia, cuyas estadísticas oficiales a principios de la década de 2000 eran tan poco confiables como parece. Para permanecer en la eurozona, un país debe mantener su déficit presupuestario por debajo del tres por ciento de su PIB. Grecia no podía hacer eso a través de métodos legítimos, por lo que los funcionarios decidieron manipular un poco las cifras, dejando de lado varios miles de millones de euros que el país había pedido prestados aquí y allá.
Esta manipulación numérica se hizo evidente en 2009. En medio de la crisis financiera mundial, la UE se dio cuenta de que Grecia había pedido prestado mucho más dinero del que había admitido, y no solo eso: no podía devolverlo. La economía griega se derrumbó y se quemó rápidamente.
Las agencias de estadística independientes mantienen a un país honesto, pero también valen su precio por otras razones.
Un análisis de costo-beneficio realizado en el Reino Unido, por ejemplo, encontró que los datos del censo nacional fueron fundamentales en todo, desde la política de pensiones hasta la construcción de escuelas y hospitales en las áreas adecuadas. Además, permitió a otras organizaciones calcular todo tipo de estadísticas per cápita.
Desafortunadamente, el análisis no pudo poner un valor numérico en todos los cálculos estadísticos, pero su estimación, una bastante conservadora, fue que los beneficios medibles totalizaron £ 500 millones al año. El censo en sí cuesta menos que eso y se aplica durante diez años, lo que se traduce en un rendimiento diez veces mayor de la inversión inicial. Si se espera que los gobiernos tomen medidas sobre los problemas, entonces necesitan una base estadística sólida a partir de la cual hacerlo. Las estadísticas oficiales son su mejor oportunidad para crear eso.
«Con estadísticas confiables, los ciudadanos pueden pedir cuentas a sus gobiernos y esos gobiernos pueden tomar mejores decisiones».
No se deje engañar por la estética elegante de un gráfico o tabla
David McCandless, autor de Information is Beautiful , una vez produjo una animación sorprendente e inolvidable llamada Debtris. Al igual que el clásico juego de computadora Tetris, Debtris mostraba grandes bloques de colores que caían al fondo de una pantalla. El tamaño de cada bloque representó el costo de varios artículos, como el presupuesto de la ONU, el costo estimado de la guerra de Irak de 2003 y los ingresos de Walmart.
La música pegadiza, los gráficos coloridos y la presentación lenta de las distintas comparaciones son hermosos a la vista. Pero, desafortunadamente, esos elementos oscurecen los muchos problemas en los datos utilizados para hacer el gráfico.
A veces, la visualización de una estadística es hermosa, pero los datos detrás de ella son desagradables. Este es, lamentablemente, el caso de Debtris, que comete muchos errores. Por ejemplo, combina medidas netas con medidas brutas. Es como comparar los beneficios de una empresa con su volumen de negocios.
Dados los problemas dentro de Debtris, ¿deberíamos simplemente descartar cualquier intento de presentar los datos de manera hermosa? No necesariamente. A veces, alguien puede encontrar el punto ideal entre la belleza y la información. Un ejemplo de ello es Florence Nightingale, una figura legendaria conocida hoy como la fundadora de la enfermería moderna.
Menos conocido, pero no menos impresionante, fue el trabajo de Nightingale como estadístico. En 1858, comenzó a hacer circular algo llamado diagrama de la rosa, con el objetivo de demostrar que las medidas sanitarias podían reducir el número de muertes por enfermedades infecciosas. En ese momento, los científicos no sabían que la mala higiene ayudaba a transmitir gérmenes.
El diagrama de rosas de Nightingale fue diseñado para parecerse a dos rosas una al lado de la otra. Uno representó enfermedades y muertes antes de las medidas; el otro los mostró después. El resultado fue una cruda representación visual de todas las muertes que las medidas sanitarias ayudaron a prevenir. El diagrama logró convencer a los médicos indecisos sobre la solidez de las medidas de saneamiento de Nightingale, y finalmente se aprobaron leyes de salud pública en respuesta.
Para evitar caer presa de gráficos y tablas engañosas, vale la pena verificar su respuesta emocional a ellos como lo haría cuando se enfrenta a otros datos. Luego, después de notar esas emociones, verifique que comprende lo que dice realmente el gráfico: qué significan los ejes, qué se está contando o qué experimentos está reflejando. Reconozca que alguien puede estar tratando de persuadirlo de algo, lo cual, a veces, está bastante bien.
Mantenga siempre la mente abierta y esté dispuesto a revisar sus opiniones
Philip Tetlock era un joven psicólogo nacido en Canadá a quien, junto con un grupo de otros científicos sociales, se le había encomendado una enorme tarea: prevenir la guerra nuclear entre Estados Unidos y la Unión Soviética. Para hacer eso, Tetlock entrevistó a innumerables expertos para conocer todas las posibilidades sobre lo que podría suceder a continuación y por qué.
Sin embargo, Tetlock se sintió frustrado cuando descubrió que los expertos de todo tipo eran extremadamente tercos y se negaban constantemente a cambiar de opinión cuando se les presentaba evidencia contradictoria. Muchos de ellos también fueron implacables al tratar de justificar pronósticos incorrectos que habían hecho en el pasado. Así que Tetlock creó un estudio tortuoso que mostraba vívidamente lo malos que eran los pronosticadores.
Para su experimento, Tetlock recopiló unas 27.500 predicciones de casi 300 expertos en política, geopolítica y, en menor medida, economía. Hizo preguntas claras que serían fáciles de declarar verdaderas o falsas en el futuro. Y luego esperó 18 años por los resultados.
En 2005, Tetlock finalmente publicó sus conclusiones. La conclusión general fue simple: los expertos eran terribles pronosticadores. Las predicciones que hicieron fueron incorrectas, se mostraron demasiado confiadas e incluso recordaron selectivamente sus propios pronósticos, alegando que habían estado en lo cierto todo el tiempo cuando los registros mostraban que se habían equivocado.
¿Significa esto simplemente que el mundo es demasiado complejo para predecirlo? Tetlock pensó que no. Así que decidió realizar otro estudio ambicioso que obtuvo opiniones de pronóstico de 20.000 expertos y aficionados por igual.
La conclusión más interesante de este estudio fue que, de hecho, algunas personas son mejores que otras para hacer predicciones, no perfectas, pero están por encima del promedio. Además, esas mismas personas mejoraron en la predicción con el tiempo, lo que significaba que no habían tenido suerte la primera vez.
Tetlock llamó a este grupo «superpronosticadores». Algunas cualidades los unían, pero quizás la más crucial de todas fue el rasgo de personalidad de la mente abierta. En otras palabras, los superpronosticadores no se aferraron obstinadamente a un enfoque de pronóstico en particular, y estaban felices de cambiar sus puntos de vista cuando se les mostraba nueva evidencia.
El estudio de Tetlock es una prueba de que nuestros errores al hacer predicciones estadísticas no son tanto el resultado de un conocimiento insuficiente como de nuestra negativa a aceptar datos. Así que mantén siempre tu mente bien abierta. Eso, combinado con una base sólida de conocimiento estadístico, hará que su comprensión del mundo sea mucho más clara.
«Para los super pronosticadores, las creencias son hipótesis que deben probarse, no tesoros que deben guardarse». – Philip Tetlock
Memorice algunos «puntos de referencia»
El empresario Andrew Elliott aboga por mantener una lista corta de «números de referencia» en su cabeza para que sea más fácil para usted comprender la importancia relativa de otros números. Aquí hay algunos ejemplos: La población de los Estados Unidos es de 325 millones; el del Reino Unido es de 65 millones. El viaje en automóvil de Boston a Seattle es de 3,000 millas. Y la novela promedio tiene 100,000 palabras. Una vez que los tenga en la cabeza, puede usarlos para hacer comparaciones; por ejemplo, un informe de 10,000 palabras puede parecer largo, pero es diez veces más corto que una novela promedio.