Actualizado el domingo, 16 junio, 2024
Calling Bullshit es una guía para las enormes cantidades de mierda que nos rodean. Al estar alerta a las formas en que se manipulan los datos y los procesos científicos, podemos aprender a gritar tonterías cuando las vemos.
En un mundo saturado de información, es esencial ser consciente de cómo se manipulan los datos y los procesos científicos. La guía «Calling Bullshit» es una herramienta valiosa que nos ayuda a reconocer y denunciar las tonterías que nos rodean. Basada en un curso popular de la Universidad de Washington, esta guía, escrita por los científicos Jevin D. West y Carl T. Bergstrom, nos proporciona seis reglas generales para combatir la desinformación y distinguir los hechos de las tonterías.
Cómo Detectar Tonterías
Jevin D. West y Carl T. Bergstrom son científicos de la Universidad de Washington. West, un científico de datos, es profesor asociado en la Escuela de Información y director del Centro para un Público Informado, y su investigación se centra en la desinformación. Bergstrom es un profesor de biología que analiza cómo fluye la información a través de redes tanto biológicas como sociales.
Los mentirosos intentan convencer a la gente de que algo es cierto, sin realmente preocuparse por la evidencia. Antes de abordar cómo desacreditar estas afirmaciones erróneas, empecemos por una pregunta sencilla: ¿qué es exactamente una afirmación errónea?
Según los expertos, una afirmación errónea surge de la intención de impresionar o persuadir a las personas. A los mentirosos les importa más ganar un debate que decir la verdad. Utilizan herramientas clave, como el lenguaje, las estadísticas y los gráficos, para inundar a la audiencia con una abrumadora cantidad de información. Las afirmaciones erróneas a menudo se disfrazan para parecerse lo más posible a la verdad.
El mensaje fundamental aquí es que los mentirosos tratan de persuadir a la gente de que algo es cierto sin prestar verdadera atención a la evidencia.
Un enfoque clásico para hacer afirmaciones erróneas es utilizar lo que el sociólogo científico Bruno Latour llamó «cajas negras». Puedes pensarlo de esta manera: se recopilan datos y luego se procesan a través de un método científico complejo, como un algoritmo. Ese proceso se conoce como la «caja negra», y todo lo que sale de ella tiende a ser considerado como un hecho objetivo.
Sin embargo, aquí está la cuestión: incluso sin adentrarnos en los detalles de cómo la caja negra procesa los datos, a menudo hay mucho que cuestionar. Para empezar, siempre es importante examinar qué datos se están utilizando en realidad.
Permíteme darte un ejemplo. En 2016, un estudio afirmó que los delincuentes y las personas no delincuentes tenían cabezas con formas diferentes, respaldado por un algoritmo. Según los resultados, los delincuentes y los no delincuentes tenían un ángulo ligeramente diferente entre la nariz y la boca, así como una curvatura labial distinta.
Pero antes de tomar una regla y comenzar a medir, considera esto: en el estudio, las fotos de los delincuentes eran todas fotos de identificación emitidas por el gobierno, mientras que las de las personas no delincuentes eran retratos profesionales. Probablemente no necesitas un algoritmo altamente complicado para darte cuenta de que las personas son más propensas a sonreír en una foto profesional que en una foto de identificación.
En otras palabras, el conjunto de datos utilizado en este estudio era defectuoso, lo que hizo que los resultados también lo fueran. Es posible refutar el estudio incluso sin explorar el algoritmo de la caja negra.
¿Los autores del estudio tenían la intención de engañar a la gente? Probablemente no. Sin embargo, estaban tan enfocados en demostrar su hipótesis que pasaron por alto el hecho de que los datos que estaban utilizando eran inapropiados. ¿El resultado? Como podrás imaginar, simplemente fue una afirmación errónea.
En este artículo, exploraremos los aspectos clave de «Calling Bullshit» y cómo nos prepara para detectar y denunciar la desinformación. Cubriremos los siguientes temas:
1. Cómo Detectar Tonterías
Vivimos en un mundo donde la información fluye constantemente a través de nuestras pantallas y medios de comunicación. Aprenderemos a identificar los tipos más comunes de desinformación, especialmente en el ámbito de la ciencia y la estadística.
2. Estar Alerta a los Peligros de las Tonterías
Comprenderemos por qué es crucial estar alerta a las tonterías que nos rodean y cómo esto afecta a nuestras vidas personales y sociales.
3. La Correlación no Implica Causa
Exploraremos por qué es peligroso asumir una relación causal basada solo en la correlación de datos y cómo evitar este error común.
4. Manipulación de Números
Descubriremos lo fácil que es manipular los números para respaldar argumentos falsos y cómo podemos detectar esta práctica.
5. Sesgo de Selección
Aprenderemos cómo el sesgo de selección puede distorsionar los resultados de las pruebas y cómo podemos identificarlo.
6. Big Data y Aprendizaje Automático
Examinaremos por qué debemos cuestionar la calidad de los datos subyacentes en el mundo del big data y el aprendizaje automático.
7. La Ciencia Moderna y sus Imperfecciones
Reflexionaremos sobre cómo las imperfecciones en la ciencia moderna permiten que la desinformación se infiltre en todos los aspectos de nuestras vidas.
8. Técnicas para Combatir las Fake News
Exploraremos algunas técnicas simples pero efectivas para combatir las noticias falsas y promover la verdad.
Guía para Detectar Tonterías
En la era de la información constante, todos estamos expuestos a una avalancha de datos y noticias, pero lamentablemente, muchas de estas son falsas. Incluso si somos conscientes de esta realidad, puede resultar difícil saber cómo enfrentarla. Las mentiras pueden propagarse rápidamente, y desenmascararlas es un desafío.
Sin embargo, todos tenemos la responsabilidad de esforzarnos por la verdad. En este artículo, aprenderás sobre los tipos más comunes de desinformación, centrándonos en la ciencia y la estadística, y descubrirás cómo ejercitar el arte del escepticismo.
La desinformación es la práctica de persuadir a las personas sin preocuparse por la verdad. En un mundo dominado por las redes sociales y el big data, es esencial ser cauteloso y entender que la correlación no implica causalidad. Debemos considerar el contexto de los números que encontramos y ser escépticos acerca de la calidad de los conjuntos de datos para poder discernir entre los hechos y las tonterías.
«Calling Bullshit» es una guía esencial para todos en la era de la información. Nos empodera para detectar y denunciar la desinformación que nos rodea, promoviendo un mundo donde los hechos prevalezcan sobre las tonterías.
¿Quiénes son los autores de «Calling Bullshit»?
Jevin D. West y Carl T. Bergstrom son científicos de la Universidad de Washington. West se especializa en datos y desinformación, mientras que Bergstrom se centra en el flujo de información en redes biológicas y sociales.
¿Por qué es importante detectar las tonterías?
Detectar las tonterías es esencial para tomar decisiones informadas y evitar la propagación de información falsa que puede tener graves consecuencias. Puedes contribuir combatiendo las noticias falsas compartiendo información verificada, siendo escéptico y verificando las fuentes antes de creer y compartir noticias.
¿Qué significa que la correlación no implica causalidad?
Significa que solo porque dos cosas estén relacionadas no significa que una cause la otra. Es importante no asumir una relación causal sin pruebas sólidas.
¿Por qué es crucial cuestionar el big data y el aprendizaje automático?
A pesar de su potencial, el big data y el aprendizaje automático solo son tan buenos como los datos en los que se basan. Debemos ser críticos con la calidad de esos datos.
Todos debemos estar alerta a los peligros de las tonterías
En 1998, la revista médica The Lancet publicó un estudio en el que el médico británico Andrew Wakefield fue uno de los autores. En ese estudio se sugería una posible relación entre la vacuna MMR, ampliamente utilizada, y el autismo.
Sin embargo, esta afirmación resultó ser incorrecta. Varios estudios posteriores no encontraron ninguna conexión entre la vacuna y el autismo, y se descubrió que el estudio de Wakefield tenía serios problemas metodológicos. En 2010, The Lancet se retractó del artículo, considerándolo uno de los estudios más desacreditados de todos los tiempos. Fue un error grave.
A pesar de esto, su impacto ha sido significativo. El movimiento «antivacunas» sigue siendo influyente, las tasas de vacunación en Estados Unidos han disminuido y los casos de sarampión han aumentado.
La triste realidad es que es más sencillo hacer que la gente crea información falsa que convencerlos de cambiar de opinión cuando ya la han aceptado.
Sin embargo, todos tenemos la responsabilidad de intentarlo.
La propagación de información falsa no es un fenómeno nuevo. En la antigua Grecia, Platón acusó a los sofistas, una escuela de filosofía rival, de tratar con argumentos falaces. Sostenía que su interés principal era ganar debates en lugar de buscar la verdad.
En el siglo XXI, la desinformación encuentra un ambiente especialmente propicio. Hoy en día, a menudo se presenta como basada en la ciencia, como fue el caso del estudio de vacunación de Wakefield. O utiliza pruebas que parecen irrefutables, como fotografías.
Es posible que recuerdes una historia que surgió después del atentado con bomba en la maratón de Boston en 2013. La historia afirmaba que una niña de ocho años de la escuela primaria Sandy Hook había sido asesinada, e incluso había una foto de ella corriendo. Esta historia fue compartida por más de 92,000 personas en las redes sociales.
Como habrás adivinado, era falsa. La niña de la foto ni siquiera había participado en la carrera, ya que no estaba abierta a niños. Sin embargo, la historia resultó demasiado tentadora como para no ser compartida.
Este es solo un ejemplo de cómo la tecnología moderna, como las redes sociales, puede propagar información falsa. Si tonterías como el estudio de vacunación tuvieron un impacto tan grande en 1998, imagina el daño que pueden causar en la era de Twitter.
Considerando nuestras redes de noticias altamente polarizadas, las fábricas de noticias falsas y la facilidad para manipular imágenes, nos enfrentamos a una crisis de desinformación. Debemos actuar de inmediato.
La correlación no implica causa
No todos los estudios científicos de mierda producen resultados sorprendentes. Algunos, de hecho, producen resultados increíblemente obvios. Por ejemplo, un estudio reciente que analizó a estudiantes universitarios encontró una correlación entre la autoestima positiva y haber tenido un primer beso antes de comenzar la universidad.
Pero, ¿qué prueba realmente ese resultado? ¿Significa que las personas naturalmente seguras de sí mismas comienzan a besarse más jóvenes? ¿O el primer beso es la causa de un aumento de la autoestima?
Y espera, ¿por qué estamos hablando de besar? ¿Cuál es el papel de las relaciones románticas? ¿No es posible que tanto los besos como la alta autoestima sean el resultado de encontrarse en una relación?
Seguro, los hallazgos del estudio son obvios. Pero aunque muestra una correlación, no nos dice nada sobre por qué estas dos cosas están vinculadas.
Esta es una forma de mierda que los medios de comunicación juegan un papel importante en difundir. A veces, un estudio estadístico tendrá mucho cuidado de no implicar un vínculo causal entre dos cosas, pero cuando el estudio termina en los periódicos, a menudo se pierde toda la sutileza.
Un informe de 2018 de Zillow, un sitio web de bienes raíces, proporciona un ejemplo. Mostró que las ciudades con precios de la vivienda en aumento también tendían a tener tasas de fertilidad más bajas para las mujeres de veintitantos años. Pero, como señaló el informe, una tendencia no necesariamente causó la otra.
Por ejemplo, las preocupaciones subyacentes sobre el dinero y el desarrollo profesional pueden estar afectando las decisiones de las personas sobre la vivienda y la crianza de los hijos. Quizás simplemente estaban planeando tener hijos más tarde; el estudio ni siquiera consideró a las mujeres mayores de 30 años. El informe de Zillow no proporcionó respuestas, simplemente describió una correlación.
Pero cuando la prensa se apoderó de él, fueron menos cuidadosos. Las historias usaban palabras como «causa» y «efecto», lo que sugería que eran específicamente los altos precios de la vivienda los que estaban provocando que menos mujeres jóvenes tuvieran hijos. El estudio original no era una mierda, pero los informes al respecto sí lo eran.
También vale la pena recordar que a veces una correlación no nos dice nada interesante en absoluto. Si grafica la prevalencia del autismo contra el nivel de ventas de alimentos orgánicos, encontrará una correlación muy estrecha: ambas líneas han aumentado considerablemente en los últimos años. Pero sería ridículo sugerir una conexión. Son simplemente dos cosas que han aumentado con el tiempo.
Es inquietantemente fácil hacer que los números digan lo que quieras
Una noche, uno de los autores, Carl, se encontró en el vestíbulo de un hotel y necesitaba una bebida caliente. Cogió un paquete de chocolate. No queriendo tomar una dosis de cafeína antes de acostarse, Carl decidió revisar el empaque y le complació leer que estaba «99.9 por ciento libre de cafeína». Hasta que lo pensó por un momento.
Resulta que un café Starbucks contiene 415 miligramos de cafeína por cada 20 onzas, lo que hace que una taza estándar tenga aproximadamente un 0,075 por ciento de cafeína. Lo que significa que el café en sí no contiene cafeína en un 99,9 por ciento.
Entonces, en un paquete de chocolate caliente, no es un gran reclamo.
No todos los ejemplos son tan inofensivos como una taza de chocolate caliente. En 2017, el sitio web Breitbart escribió que 2.139 personas con estatus DACA, personas que ingresaron ilegalmente a los EE. UU. Cuando eran menores y recibieron amnistía, habían sido condenadas o acusadas de delitos.
Pero eso fue de un total de 700,000 personas, menos de una de cada 300. Hay el doble de posibilidades de que un ciudadano estadounidense esté encarcelado actualmente que de que un destinatario de DACA haya sido acusado de un delito. Sin embargo, ese número, 2139, seguro que suena aterrador.
Al elegir si usar números o porcentajes, puede hacer que la escala de un problema parezca grande o pequeña. Y puede hacer lo mismo cuando se habla de aumentos porcentuales.
Según un comunicado de prensa de The Lancet , beber una bebida alcohólica todos los días, en lugar de cero, aumenta el riesgo de desarrollar un problema de salud relacionado con el alcohol en un 0,5 por ciento. Lo que suena bastante serio.
Pero, en primer lugar, ¿cuán prevalentes son estos problemas relacionados con el alcohol? Ocurren en solo el uno por ciento de las personas que no beben. Entonces, un aumento del 0,5 por ciento lleva el riesgo al 1,005 por ciento.
Es vital recordar la diferencia entre diferencias porcentuales y diferencias en puntos porcentuales . En ese ejemplo, la diferencia porcentual de 0,5 parecía grande, pero la diferencia en puntos porcentuales era de un mínimo de 0,005.
En otras palabras, la gente puede producir tonterías con números incluso sin recurrir a mentiras. Presentarlos de la manera correcta, o de la manera incorrecta, puede tener un gran impacto. Por eso es vital mantenerse alerta.
Cuando los datos que usa para una prueba no son neutrales, los resultados mostrarán un sesgo de selección
Las estadísticas nos rodean. ¿Pero de dónde vienen? ¿Cómo sabemos, por ejemplo, que los holandeses son los más altos del mundo? Muy a menudo, los datos utilizados son solo una muestra. En los Países Bajos, no midieron a todos los hombres, sino solo a una muestra de toda la población.
Pero imagínese si esa muestra hubiera incluido un equipo de baloncesto.
O imagina que vas a un mercado orgánico y le preguntas a la gente sus opiniones políticas. Lo más probable es que no obtenga una muestra representativa de la población; probablemente encontrará allí desproporcionadamente más liberales.
Esto se conoce como sesgo de selección y es un problema grave en las estadísticas.
Aquí hay un ejemplo que muestra los efectos extraños que puede tener el sesgo de selección. Verdadero o falso: los chicos calientes son unos idiotas.
Supongamos que no existe una correlación real: si traza el atractivo contra la bondad en un gráfico, los puntos se distribuyen aleatoriamente. Sin embargo, algunos puntos en ese gráfico son hombres con los que nunca consideraría salir. Entonces, al filtrar todos los idiotas completos y todos los que encuentres extremadamente poco atractivos, básicamente podemos eliminar todos los puntos en un lado de una línea recta.
Los puntos que quedan ahora va a mostrar una correlación, debido a la forma en que hemos acaba de ajustar la muestra. Entonces, si bien los chicos calientes no son idiotas en general, de los que considerarías salir , hay una tendencia en esa dirección.
Ese es un hecho lamentable de la vida, pero no es una tontería. El siguiente ejemplo, sin embargo, es. Prácticamente todas las agencias de seguros de automóviles afirman que cambiarse a ellas les ahorra a las personas un promedio de una cifra alta, como $ 500 al año. ¿Cómo es posible que eso sea cierto?
Bueno, las únicas personas que realmente se molestan en cambiar son las que ahorrarán mucho dinero al hacerlo; de lo contrario, simplemente se quedarán. Inevitablemente, esa cifra de $ 500 solo incluye una muestra no representativa.
En los ensayos clínicos, este problema se conoce como censura de datos . A veces, las personas abandonan los ensayos de un nuevo medicamento si experimentan efectos secundarios, por lo que sus experiencias no se registran en los datos. Si una selección no aleatoria de personas abandona un experimento, eso inevitablemente sesgará los resultados.
Las muestras verdaderamente aleatorias son más difíciles de obtener de lo que imagina, porque el sesgo de selección está en todas partes. Es una razón más por la que necesita pensar detenidamente sobre las estadísticas que escucha.
No se deje deslumbrar por el big data y el aprendizaje automático: los datos subyacentes aún deben ser sólidos
Utilizando la tecnología moderna, los diseñadores gráficos pueden crear diagramas elaborados y, a veces, ridículos, como un cuadro sobre cabras que se hace para adaptarse a la forma de un cuerno de carnero, o un «mapa del metro» de libros bíblicos o géneros musicales.
Esas cosas pueden simplemente ofrecer una forma divertida de enumerar algunos hechos o puntos sobre algo. Pero eso no significa que los gráficos de apariencia convencional sean automáticamente más serios o precisos. Si está mirando un gráfico de barras, siempre verifique que el eje y descienda hasta cero. Si no es así, no verá las cosas en la proporción correcta.
El otro problema que nos presenta la tecnología es el auge del big data, en el que la investigación no siempre se basa en bases sólidas.
Los enormes conjuntos de datos que reciben el nombre de «big data» tienden a introducirse en algoritmos misteriosos que se enseñan a sí mismos a hacer cualquier cosa, desde reconocer caras hasta negociar acciones. Esto se conoce como aprendizaje automático y es un gran ejemplo del tipo de «caja negra» misteriosa e inescrutable de la que hablamos anteriormente.
Ya hemos visto un ejemplo de aprendizaje automático que crea tonterías: el algoritmo que supuestamente identificaba a los delincuentes en función de sus rostros. Otros ejemplos son aún más ridículos.
Una máquina fue alimentada con radiografías de tórax, con la esperanza de que pudiera captar imágenes en las que hubiera problemas cardíacos o pulmonares. Lo hizo correctamente, pero solo porque notó que los escaneos de cofres no saludables tendían a tener algún texto impreso en la esquina. Todos los escaneos insalubres que había recibido habían sido realizados por una máquina en particular. Probado en otros escaneos, no funcionó.
Otro ejemplo salió mal a mayor escala. En 2008, Google comenzó a desarrollar Tendencias de la gripe de Google, con el objetivo de predecir cómo se movería la gripe por los EE. UU. Basándose en búsquedas de términos como «síntomas de la gripe» o «farmacias».
El algoritmo de Google terminó buscando términos claramente no relacionados con la gripe, como «baloncesto de la escuela secundaria», simplemente porque las búsquedas de ellos también alcanzaron su punto máximo en invierno. Y con el tiempo, sus predicciones sobre la gripe empeoraron cada vez más.
Al observar el pasado, el algoritmo pudo encontrar correlaciones entre las tendencias de la gripe y otros factores. Pero, como sabemos, la correlación no implica causalidad. Entonces, cuando miró hacia el futuro, cayó de bruces.
El potencial del aprendizaje automático es considerable. Pero a veces se necesita un ser humano para darse cuenta de que solo está produciendo tonterías.
Las imperfecciones de la ciencia moderna significan que la mierda se cuela por todas partes
Una de las grandes cosas de la ciencia es que se corrige sola. Si un estudio encuentra un resultado interesante, otros intentarán replicarlo, solucionando cualquier problema y progresando gradualmente.
Eso significa que realmente no existe la verdad científica absoluta. Más bien, la ciencia es simplemente la acumulación de todos los experimentos que se han realizado hasta ahora.
De hecho, el sistema científico que tenemos hoy está lleno de problemas. Por ejemplo, piense qué estudios tienden a publicarse en revistas. Por lo general, son los que muestran resultados positivos. Pero, ¿y si otros diez estudios ya han intentado probar lo mismo y todos fracasaron? Estos hallazgos a menudo no se informan en absoluto.
En otras palabras, la publicación científica adolece de un sesgo de selección. Y esa es solo una de las formas en que la mierda se introduce directamente en el sistema científico moderno.
Como regla general, los científicos tienden a aceptar que una correlación es estadísticamente significativa si tiene un valor p de 0.05 o menos. Eso significa que hay menos del cinco por ciento de probabilidad de que la correlación sea el resultado de la casualidad.
Suena razonable, ¿verdad? Pero vale la pena pensar en la Ley de Goodhart . Esto establece que tan pronto como una medida se convierte en un objetivo, se vuelve ineficaz, porque la gente intenta engañar al sistema para llegar allí.
Lamentablemente, eso incluye a los científicos. Como ya hemos visto, es fácil manipular los números para que digan lo que quieres. Al ser selectivo sobre los resultados de un experimento, a menudo es bastante fácil diseñar un valor p de 0.05 o menos. Se llama p-hacking y está muy extendido.
Otro problema importante es cómo se informan las cosas en los medios, o si se informa en absoluto. Solo se informa sobre una pequeña fracción de la investigación científica e, inevitablemente, los estudios que obtienen los mejores titulares son los que se cubren. Entonces, por supuesto, hay un sesgo de selección en abundancia.
También hay problemas dentro de las revistas científicas. Las revistas menos estimadas tienden a ser poco selectivas sobre lo que publican, si el autor está dispuesto a pagar. Afortunadamente, eso da lugar a una forma relativamente fácil de detectar la mierda científica: si ve una gran afirmación en una revista pequeña, sea escéptico. Si hubiera algo creíble en el resultado, tenga la seguridad de que los investigadores lo habrían publicado en un lugar mejor.
A través de algunas técnicas simples, pueden acabarse las fake news
Los periodistas no hacen todo bien, especialmente cuando informan sobre ciencia. Pero vale la pena tener en cuenta uno de sus hábitos. Cuando intente averiguar si algo es cierto, haga tres preguntas, como lo haría un periodista: ¿Quién está detrás de esta información? ¿Cómo lo consiguieron? ¿Y qué intentan vender?
No es la única forma en que podemos identificar las tonterías, pero es una excelente manera de comenzar.
¿Conoce la expresión «Demasiado bueno para ser verdad»? La mayoría de las veces, se basa en el dinero. Si escuchas algo que simplemente no parece plausible, existe una posibilidad muy saludable de que sea una mierda.
Una excelente manera de averiguar qué tan plausible es algo es hacer estimaciones de Fermi . Estas son aproximaciones muy aproximadas que puede hacer en su cabeza que le dirán si algo está más o menos bien en términos de escala.
Digamos que alguien le dijo que había 121.000 John Smith en el Reino Unido. Comprobemos los hechos rápidamente. ¿Cuántas personas hay en el Reino Unido? Más de diez millones, pero menos de mil millones. Entonces digamos 100 millones. ¿Cuántas de esas personas se llaman Juan? Menos de uno en diez, pero seguramente más de uno en mil, digamos uno en cien. Probablemente sea lo mismo para las personas llamadas Smith.
Eso nos da el número de John Smith como 100 millones dividido por cien, dividido por cien, lo que lo convierte en diez mil. Eso no es muy exacto, pero es suficiente para dejar en claro que 121.000 son una mierda.
Otro consejo contra la mierda es tener cuidado con el sesgo de confirmación . Ésta es la tendencia a creer información que confirma lo que ya pensamos. Todos somos culpables de esto de vez en cuando, así que tenga mucho cuidado con la información que le guste.
Recuerde también la correlación y la causalidad, y sea especialmente escéptico si lee que una tendencia ha “causado” a otra; podría haber una razón completamente diferente para cada una.
Y finalmente: tenga mucho cuidado con la información que ha encontrado a través de fuentes en línea poco confiables como Twitter.
¿Qué haces cuando encuentras tonterías? Dígalo. Pero los autores le piden que sea cortés cuando lo haga. Después de todo, todos cometemos errores. Y lo que es más, es mucho más probable que cambies de opinión si eres amable al respecto.
Simplemente identificar tonterías no es suficiente. Depende de todos nosotros decir tonterías cuando las veamos, para que cada vez más personas puedan ver con qué frecuencia nos engañan las estadísticas falsas. Pero cuando hace esto, es vital que los hechos sean correctos. Por lo tanto, asegúrese de tener las cifras correctas a mano antes de comenzar a criticar a otra persona. Y si comete un error, admítelo. De lo contrario, eres solo otro idiota.