Durante siglos, los charlatanes han explotado los mismos puntos débiles de la psicología humana: confianza, esperanza, miedo, pertenencia y deseo de control. Lo que ha cambiado es el entorno. En Charlatans (2025), Moisés Naím y Francisco “Quico” Toro sostienen que el manual del engaño es antiguo, pero hoy se ejecuta con una potencia inédita: algoritmos, redes sociales, pagos instantáneos, criptoactivos y tecnologías emergentes convierten la estafa en un fenómeno viral y global.
El resultado es incómodo: no existe un “perfil inmune”. La vulnerabilidad no se explica por falta de inteligencia, sino por cómo funciona la mente en condiciones reales (prisa, emoción, incertidumbre, presión social) y por un ecosistema informativo diseñado para maximizar atención, no verificación.

La idea clave: el charlatán se coloca entre tú y tus deseos
Una de las tesis más útiles del enfoque del libro es que el charlatán no solo vende un producto o una promesa: se presenta como el “puente” imprescindible entre la persona y su aspiración (salud, dinero, estatus, amor, sentido, comunidad). Ese mecanismo aparece tanto en fraudes históricos (curas milagrosas, alquimia, “secretos” de poder) como en variantes actuales (inversiones imposibles, pseudociencia, gurús de productividad, “insiders” de IA o cripto). Default+1
La estafa funciona mejor cuando no parece una estafa, sino la respuesta perfecta a una necesidad emocional legítima.
Por qué “la gente lista” cae: factores psicológicos previsibles
La inteligencia general no desactiva sesgos cognitivos; a veces solo ayuda a justificarlos mejor. Entre los impulsores psicológicos más relevantes:
- Sesgo de confirmación y razonamiento motivado: tendemos a aceptar más rápido lo que encaja con lo que ya creemos o deseamos creer. El propio Toro lo señala como un mecanismo básico y muy establecido en psicología social, que puede convertirse en vulnerabilidad cuando alguien lo explota de forma intencional. Default
- Heurísticos de confianza: autoridad aparente (títulos, bata, “experto”), reputación prestada (testimonios, “como se vio en…”), familiaridad (cara repetida en tu feed) y coherencia narrativa (“todo encaja”).
- Emoción y urgencia: miedo a perder (“última oportunidad”), ansiedad financiera, deseo de curación rápida, o necesidad de pertenecer. La urgencia reduce deliberación y aumenta decisiones impulsivas.
- Compromiso escalonado: primero una acción pequeña (suscribirte, pagar poco, unirte al grupo), luego peticiones mayores. Es más fácil mantener coherencia que reconocer el error.
- Aislamiento social: cuando una persona está más aislada, es más probable que busque comunidad y validación; y los charlatanes pueden construir precisamente esa comunidad como parte del mecanismo de captura. Default
Estas palancas no son “defectos” individuales raros: son atajos normales del cerebro para decidir con información incompleta.
Qué ha cambiado: vulnerabilidades tecnológicas del siglo XXI
Según la descripción editorial del libro, lo nuevo no es el engaño, sino su escalabilidad: hoy el charlatán es digital, viral y global. Hachette Book Group Esto se traduce en varias ventajas operativas:
- Microsegmentación y personalización: mensajes distintos para nichos distintos; la promesa se adapta a tu perfil, tus miedos y tus aspiraciones.
- Amplificación algorítmica: el contenido extremo o emocional obtiene más interacción y se difunde más; el entorno favorece la persuasión rápida.
- Pruebas sociales fabricadas: reseñas falsas, comunidades “de fans”, capturas, bots, “casos de éxito” y métricas infladas.
- Nuevas capas de suplantación: deepfakes, clonación de voz y contenido sintético hacen más creíble lo falso y abaratan la producción masiva de señuelos.
- Infraestructura de pago y anonimato: transferencias inmediatas, criptoactivos, y redes transnacionales dificultan rastreo y recuperación.
En este contexto, la estafa deja de ser artesanal: se comporta como un producto de crecimiento, optimizado por datos.
El “manual” de siempre, con distribución moderna
El libro subraya que el repertorio clásico se repite: promesas de “hazte rico rápido”, “cúrate rápido”, acceso exclusivo, secretos prohibidos, enemigos que “no quieren que sepas esto”, y narrativas que convierten el escepticismo en señal de que “vas por buen camino”. Hachette Book Group
Lo moderno es el canal: lo que antes ocurría en una plaza o un folleto, ahora ocurre en un carrusel, un directo, una newsletter, un grupo cerrado, o un embudo automatizado que combina contenido emocional con presión comercial.
Cómo reducir el riesgo: medidas que sí funcionan en la práctica
No existe una vacuna total, pero sí “fricción” inteligente. Algunas defensas realistas:
- Pasar de la reacción a la verificación: introducir una pausa deliberada cuando algo activa urgencia o euforia (“si es tan bueno, puede esperar 24 horas”).
- Triangulación de fuentes: no validar con una sola autoridad; buscar corroboración independiente y, si es un producto de salud o inversión, exigir evidencia robusta y límites claros.
- Señales rojas conductuales: quien descalifica a toda crítica como ataque, quien promete resultados garantizados, o quien exige secreto/urgencia, suele estar construyendo dependencia.
- Higiene social: comentar el caso con alguien fuera del “grupo” (una persona que no comparta el incentivo). La conversación externa rompe el aislamiento que muchos esquemas necesitan.
- Protecciones operativas: límites de transferencia, verificación en dos pasos, canales oficiales, y sospecha activa ante suplantación (audios “urgentes”, cambios de cuenta bancaria, etc.).
A nivel colectivo, también importa que instituciones y plataformas reaccionen a la velocidad del daño: si el ecosistema es rápido y global, las respuestas lentas dejan un vacío que el charlatán aprovecha. Hachette Book Group
Charlatans (2025) coloca el foco donde suele doler: no en la “credulidad” como fallo moral, sino en la combinación entre psicología humana normal y un entorno tecnológico que potencia la manipulación a escala. Naím y Toro describen un mundo donde el riesgo no se distribuye por cociente intelectual, sino por exposición, emoción, aislamiento y diseño del ecosistema digital.
La edad de oro de los charlatanes en la era de la información
Vives en el momento más educado, conectado y saturado de información de toda la historia humana. Puedes verificar un dato en segundos. Tienes acceso a más conocimiento del que muchas civilizaciones enteras tuvieron jamás. Y, sin embargo, este es también el gran auge de los charlatanes.
Esquemas Ponzi que antes habrían engañado a decenas hoy vacían los bolsillos de millones. Predicadores y estafadores de la fe levantan imperios de miles de millones prometiendo curas milagrosas. Teorías conspirativas que nacieron como bromas en internet terminan alimentando multitudes capaces de asaltar instituciones y poner en jaque el orden democrático.
Lo inquietante es que las herramientas que deberían protegerte del engaño —la abundancia de información, la verificación inmediata, la conectividad— se han convertido en armas para quienes comprenden una verdad incómoda: tu cerebro funciona con un “software” antiguo, lleno de atajos y sesgos, y los depredadores modernos saben exactamente cómo activarlos.
Este MUHIMU se adentra en cómo estafadores, embaucadores y vendedores de humo secuestran nuestras predisposiciones evolutivas para manipular, persuadir y defraudar a escala masiva. Porque la pregunta no es si eres vulnerable a los charlatanes; la pregunta es qué vulnerabilidad intentarán explotar primero.
1) Si hoy podemos verificarlo todo, ¿por qué sigue funcionando el engaño?
Porque la estafa rara vez se impone por falta de datos: se impone por emociones, urgencia, presión social y sesgos cognitivos. La verificación existe, pero el engaño suele llegar antes y activarte primero.
2) ¿Qué ha cambiado para que estafas “de siempre” ahora afecten a millones?
La escala. El manual es el mismo, pero las redes sociales, la microsegmentación y la viralidad permiten replicar el fraude a velocidad global, personalizando el mensaje para distintos perfiles y multiplicando su alcance.
3) ¿Cuál es la idea central de este MUHIMU?
Que todos somos vulnerables. No por ingenuidad, sino porque nuestra mente usa atajos antiguos en un entorno tecnológico diseñado para capturar atención. El riesgo no es “si caerás”, sino qué palanca —miedo, esperanza, pertenencia, codicia o urgencia— intentarán activar primero.
Por qué personas inteligentes caen en estafas: una mente antigua en un mundo moderno
Probablemente crees que nunca caerías en una estafa. La mayoría de la gente lo cree. Nos decimos que somos demasiado inteligentes para entrar en una secta, demasiado escépticos para confiar en un timador, o demasiado racionales para creernos teorías conspirativas. Y, sin embargo, personas inteligentes y con buena formación caen en engaños todos los días, en cifras sorprendentemente altas. La verdad incómoda es que el cerebro humano viene de serie con un “software” antiguo que nos hace, en ciertos contextos, más fáciles de manipular de lo que nos gusta admitir.
Por ejemplo, el instinto gregario está profundamente arraigado en nuestra psicología. Para nuestros antepasados, seguir al grupo era una condición de supervivencia: si todos salían corriendo, tú también corrías. Quienes se paraban a pensar a menudo no vivían lo suficiente como para aprender de su prudencia. Ese mismo mecanismo, que fue adaptativo durante milenios, hoy puede volvernos vulnerables a burbujas financieras, esquemas cripto y movimientos políticos construidos deliberadamente sobre la desinformación y la mentira.
Otro caso revelador procede de un experimento clásico del psicólogo Peter Wason, realizado en 1960 en el University College London. Wason mostraba a estudiantes universitarios tres números: 2, 4, 6. Les decía que esa secuencia seguía una regla, y su tarea era descubrirla. Para hacerlo, podían proponer nuevas ternas de números; Wason solo respondía si cada propuesta cumplía o no la regla. Cuando se consideraban seguros, debían enunciar la regla.
La mayoría asumía enseguida que la regla era “sumar dos cada vez” y proponía secuencias como 8, 10, 12 o 14, 16, 18: pruebas orientadas a confirmar la primera intuición. Pero ahí aparece el problema: nuestro cerebro suele buscar seguridad, no verdad.
La regla real de Wason era mucho más simple y amplia: cualquier secuencia de números en orden ascendente. Servían 1, 2, 3, y también 5, 17, 4.000. Sin embargo, los participantes rara vez probaban secuencias que pudieran refutar su hipótesis (por ejemplo, 2, 4, 5 o 10, 8, 6). Preferían “síes” que reforzaran su ego antes que “noes” útiles para aprender. En cuanto obtenían confirmación, concluían que habían descubierto el patrón, sin darse cuenta de que solo estaban validando su suposición estrecha, no explorando la regla completa.
Este fallo se conoce como sesgo de confirmación: la tendencia a buscar evidencias que respalden lo que ya creemos e ignorar las que lo contradicen. Si piensas que tus “números de la suerte” salen más, recuerdas cada acierto y olvidas cada pérdida. Por eso los jugadores siguen convencidos de que su sistema funciona, y por eso algunas víctimas de esquemas Ponzi invierten todavía más incluso cuando las señales de alarma empiezan a acumularse.
El problema se agrava con el efecto Dunning–Kruger. Cuanto menos sabes de un tema, más confianza sueles tener en tus opiniones. Quienes saben menos de economía pueden sentirse más seguros en sus predicciones financieras. Quienes tienen conocimientos médicos mínimos pueden creer que entienden mejor que nadie las vacunas. La incompetencia no solo te perjudica: también puede impedirte ver tus propias limitaciones.
3 preguntas y respuestas clave
1) Si hoy tenemos tanta información, ¿por qué sigue funcionando el engaño?
Porque el fraude rara vez se impone por falta de datos, sino por cómo decidimos bajo presión: emoción, urgencia, pertenencia y sesgos cognitivos. La información está disponible, pero la manipulación suele activarte antes de que verifiques.
2) ¿Qué demuestra el experimento “2–4–6” sobre nuestra forma de razonar?
Que tendemos a buscar confirmación de nuestra primera idea, en vez de intentar refutarla. Ese hábito nos vuelve excesivamente seguros y reduce nuestra capacidad de detectar trampas y explicaciones alternativas.
3) ¿Por qué el efecto Dunning–Kruger aumenta el riesgo de caer en estafas o conspiraciones?
Porque cuando sabes poco, puedes sobreestimar tu comprensión y confiar demasiado en tu criterio. Esa confianza injustificada te hace más persuasible, más resistente a la evidencia contraria y más propenso a “doblar la apuesta” cuando aparecen señales de alerta.
El principio Ponzi: la misma estafa, nuevas tecnologías
En 1920, un inmigrante italiano de verbo fácil llamado Charles Ponzi detectó algo decisivo: si prometes rendimientos imposibles y pagas a los primeros inversores con el dinero de los nuevos, las propias víctimas terminarán trayéndote más víctimas. En pocos meses reunió cerca de quince millones de dólares, y su apellido quedó ligado para siempre a este tipo de fraude, aunque no lo inventó.
Un esquema Ponzi funciona porque explota vulnerabilidades mentales distintas a la imitación del grupo o al sesgo de confirmación. Sí, apela a la codicia, pero también al miedo a quedarse fuera (FOMO) y a un atajo muy humano: tendemos a confiar en lo que parece “funcionar”. Cuando ves que otras personas cobran sus supuestos beneficios, el sistema adquiere apariencia de legitimidad.
Esos primeros ganadores se convierten, sin pretenderlo, en comerciales del fraude: presumen de beneficios en cenas, chats y reuniones familiares. Para cuando las matemáticas colapsan —porque siempre colapsan—, el estafador suele haber desaparecido con una fortuna.
Casi un siglo después del caso Ponzi, un ejemplo mostró lo bien que este mecanismo se adapta a la era digital. En 2016, el emprendedor turco Mehmet Aydın lanzó Çiftlik Bank (“Banco Granja”), una aplicación que prometía grandes retornos a quienes compraran ganado virtual y obtuvieran beneficios por la “producción” de leche y carne dentro del juego.
Suena absurdo: ¿quién invierte dinero real en vacas de dibujos en el móvil? Pero Aydın entendió una idea clave: si envuelves un fraude antiguo en tecnología nueva, mucha gente lo interpreta como innovación, no como engaño.
La app ofrecía rendimientos extraordinarios y los presentaba con una interfaz pulida, casi lúdica, con notificaciones optimistas sobre el progreso del “ganado”. Algunos inversores tempranos cobraron dinero real y lo difundieron en redes, lo que reforzó la percepción de que era un negocio legítimo.
En un contexto de incertidumbre económica, y en comunidades donde la inversión en ganado era culturalmente familiar, el reclamo fue especialmente eficaz: ver a conocidos “ganar” desde el teléfono desactivó muchas alarmas. Para 2018, decenas de miles de personas habían invertido, y las investigaciones hablaron de más de mil millones de liras turcas defraudadas (cientos de millones de dólares).
La lección es brutal y consistente: la tecnología cambia y las promesas se adaptan al contexto local, pero la psicología del Ponzi permanece intacta. Da igual si en el Boston de los años 20 compras cupones de respuesta internacional, si en la Turquía de 2016 compras vacas virtuales o si en el ecosistema cripto te ofrecen rentabilidades “garantizadas”: la mezcla de codicia, prueba social y barniz de novedad suele imponerse a la racionalidad.
3 preguntas y respuestas clave
1) ¿Por qué un esquema Ponzi parece legítimo al principio?
Porque paga a los primeros con dinero de los siguientes. Esos cobros iniciales crean “prueba” y convierten a los primeros inversores en promotores involuntarios, justo cuando el fraude necesita crecer más rápido.
2) ¿Qué aporta la tecnología a un Ponzi clásico?
Escala, velocidad y credibilidad estética. Una app con diseño profesional, métricas, notificaciones y presencia social puede hacer que una promesa inverosímil se perciba como “innovación”, reduciendo el escepticismo.
3) ¿Cuál es la combinación psicológica que lo hace tan eficaz?
Codicia (ganar mucho), FOMO (no quedarse fuera) y prueba social (ver a otros cobrar). Ese cóctel puede silenciar señales de alarma incluso en personas prudentes, sobre todo en periodos de incertidumbre.
Cuando la fe se convierte en negocio: el “evangelio de la prosperidad” y la ingeniería del milagro
Kenneth Copeland quiere que entiendas algo —no tanto sobre Jesús, como sobre la “lógica” de su ministerio. En una entrevista de 2019, este telepredicador texano justificó el uso de aviones privados y llegó a defender que evita volar en líneas comerciales porque no quiere meterse en un “tubo” lleno de “demonios”. Inside Edition habla sobre ello. En ese mismo reportaje, Inside Edition señaló que su organización dispone de dos jets, entre ellos un Citation X y un Gulfstream V adquirido al director Tyler Perry.
Más allá del impacto mediático, lo relevante es el mecanismo: dentro del llamado “evangelio de la prosperidad”, donar no se presenta como apoyo a una causa, sino como una palanca para activar recompensas materiales. Se pide “semilla” (seed money) con la promesa de que Dios la multiplicará. El problema es que, para muchos críticos, el enriquecimiento visible se concentra en quienes predican, no en quienes aportan.
En Brasil, el obispo Edir Macedo llevó esta fórmula a escala industrial. Fundador de la Iglesia Universal del Reino de Dios, ha sido vinculado durante años a un imperio mediático y patrimonial: medios, propiedades y una enorme estructura organizativa. Diversas estimaciones han situado su fortuna en torno a los 2.000 millones de dólares (según autoridades citadas por la prensa), y su iglesia se ha descrito como una red con miles de templos en el país. Además, Macedo es identificado como propietario del grupo que controla la cadena Record/RecordTV, una de las grandes televisiones comerciales brasileñas.
El patrón, sin embargo, no es exclusivo del cristianismo. En India, Baba Ramdev transformó el yoga en un fenómeno de masas y construyó un gran negocio alrededor de la marca Patanjali. Sus mensajes han sido objeto de polémica por atribuir a prácticas y productos propiedades “curativas” extraordinarias, incluyendo afirmaciones sobre COVID-19 (por ejemplo, al presentar Coronil como “cura” con recuperaciones en siete días), algo que reguladores y tribunales han cuestionado y que ha derivado en procesos legales y reproches públicos.
Si entras en cualquier espacio donde se ofrecen milagros a cambio de dinero, verás una puesta en escena recurrente: testimonios encadenados que vinculan “avances” personales a donaciones “sacrificadas”; insistencia en dar “hasta que duela”, especialmente cuando se tiene poco; y presión comunitaria para interpretar ese dolor como prueba de fe. Ese diseño funciona porque explota la esperanza en su punto más vulnerable: cuando la vida aprieta, cuando las instituciones fallan, la promesa de intervención divina se vuelve emocionalmente irresistible. Con una congregación reforzando el relato (y premiando socialmente a quien “cree”), el pensamiento crítico se debilita.
3 preguntas y respuestas clave
1) ¿Qué hace distinto al “evangelio de la prosperidad” frente a otros engaños?
Que no vende un producto verificable ni una inversión convencional: promete un retorno sobrenatural. La autoridad se presenta como “conexión directa” con lo divino, lo que dificulta la contradicción racional y convierte la duda en un problema moral (“falta de fe”).
2) ¿Por qué estos modelos se sostienen incluso cuando parecen inverosímiles?
Porque mezclan tres fuerzas muy potentes: esperanza (salir de una situación límite), presión social (testimonios y conformidad grupal) y una narrativa que interpreta cualquier crítica como persecución o ataque espiritual.
3) ¿Qué señales de alerta se repiten cuando se piden donaciones a cambio de “milagros”?
Promesas de resultados garantizados, urgencia emocional, insistencia en el “sacrificio” económico como condición, y un sistema de validación basado en relatos selectivos (casos de éxito amplificados, fracasos invisibilizados). En salud, además, la alerta se dispara cuando se hacen afirmaciones terapéuticas extraordinarias sin respaldo verificable o contra lo indicado por reguladores.
QAnon: la conspiración que convirtió la paranoia en un juego
El 28 de octubre de 2017, alguien que firmaba como “Q” publicó un mensaje críptico en 4chan, un foro anónimo conocido por sus bromas y su cultura extremista. Afirmó que Hillary Clinton sería arrestada en cuestión de días. Ese arresto no ocurrió, y tampoco se cumplieron las predicciones concretas que siguieron. Aun así, en pocos años, el relato creció hasta convertirse en un movimiento global: millones de personas llegaron a creer que recibían “inteligencia” clasificada de un supuesto insider del gobierno que libraba una guerra secreta contra una élite de pedófilos satánicos.
QAnon triunfó donde muchas conspiraciones fracasan porque gamificó la desconfianza. En lugar de ofrecer un manifiesto cerrado, “Q” publicaba pistas vagas —los célebres drops— que los seguidores debían descifrar colectivamente. Esas migas digitales transformaban al creyente en “detective”: si pasas horas interpretando mensajes ambiguos, conectando puntos y buscando patrones, terminas invirtiendo identidad y tiempo en la historia que tú mismo ayudas a fabricar.
De ahí surge lo que varios autores describen como propaganda participativa: no se trata solo de “creer”, sino de construir. Los seguidores elaboraron mapas, gráficos y vídeos; conectaron celebridades con restaurantes y supuestos túneles; reclutaron a familiares con un argumento emocionalmente blindado (“estamos salvando niños”). Cada aportación individual ampliaba un rompecabezas que, por diseño, no podía terminarse: si se resolviera, el juego se acabaría.
Donald Trump supo beneficiarse de esa energía sin asumirla plenamente. En 2020, cuando se le preguntó por QAnon, evitó condenarlo y respondió con ambigüedad estratégica: dijo que “lo que oye” es que sus seguidores están “muy en contra de la pedofilia”, lo que le permitía validar el marco moral sin respaldar explícitamente la teoría y, a la vez, conservar negación plausible.
La innovación decisiva no fue el contenido —conspiraciones sobre élites y enemigos ocultos son antiguas—, sino el sistema de distribución. Las plataformas sociales premian el contenido que genera reacción, y pocas cosas disparan la reacción como el miedo y la indignación. El material con niños “en peligro” se comparte más; los grupos y recomendaciones pueden crear cámaras de eco; y el resultado es que una narrativa nacida en foros se expande, se normaliza y salta del móvil a la calle.
El 6 de enero de 2021, la conexión con el mundo offline quedó en evidencia: simpatizantes de QAnon estuvieron presentes de forma visible en el asalto al Capitolio de EE. UU., y la adhesión a QAnon apareció como un patrón recurrente en numerosos casos penales vinculados a ese día.
Y el manual sigue circulando. Sus métodos —“conectar puntos”, convertir sospechas en “investigación”, y vestirlo todo con una misión moral— han influido en otros movimientos (incluidos entornos antivacunas y conspiraciones financieras) y en conflictos locales donde proliferan acusaciones de “adoctrinamiento” o “grooming”. Una vez entrenas a alguien para ver enemigos ocultos en todas partes, el patrón se vuelve difícil de desactivar.
3 preguntas y respuestas clave
1) ¿Por qué QAnon enganchó más que otras conspiraciones?
Porque no solo “contaba” una teoría: la convertía en un juego colaborativo. Los drops funcionaban como pistas ambiguas que recompensaban la interpretación colectiva y generaban inversión emocional e identitaria.
2) ¿Qué papel tuvo Trump en la expansión del fenómeno?
Aprovechó la ambigüedad: en lugar de desautorizar el movimiento, lo trató con gestos y declaraciones que podían leerse como validación (por ejemplo, remarcar que “están contra la pedofilia”), manteniendo margen para negar respaldo directo.
3) ¿Por qué las plataformas aceleran este tipo de narrativas?
Porque el diseño orientado a maximizar engagement favorece contenidos emocionales (miedo, rabia, “salvar niños”), facilita cámaras de eco y puede empujar a los usuarios hacia material cada vez más extremo o conspirativo.
La mente del estafador: rasgos oscuros, empatía ausente y alcance global
Quizá te preguntes qué tipo de persona es capaz de diseñar un plan elaborado para robar a miles de víctimas. La respuesta incómoda es que muchos estafadores “de éxito” comparten un conjunto de rasgos psicológicos que no son comunes en la mayoría de la gente. Los estudios sobre delincuentes condenados por fraude describen patrones relativamente consistentes que ayudan a entender tanto su habilidad para manipular como su disposición a destruir vidas por beneficio.
La base suele relacionarse con lo que en psicología se conoce como la tríada oscura: narcisismo, maquiavelismo y rasgos antisociales (en el lenguaje clínico, trastornos o rasgos vinculados a la personalidad antisocial; en el habla popular, “psicopatía”, aunque no siempre se usa de forma precisa). El narcisismo aporta una seguridad aparentemente inquebrantable: permite prometer lo imposible con una calma que desarma. El maquiavelismo aporta estrategia: leer el tablero social, detectar debilidades, construir relatos convincentes y mover piezas para el propio interés.
Pero el elemento más decisivo suele ser el componente antisocial: no la caricatura cinematográfica del “monstruo”, sino algo más frío y funcional. En estas personas puede haber baja reactividad ante el daño ajeno, poca culpa y menor sensibilidad al miedo cuando el riesgo afecta a otros. En investigaciones neuropsicológicas se han observado diferencias en el procesamiento de emociones como el miedo y la empatía en perfiles con rasgos psicopáticos, lo que ayuda a explicar por qué algunas conductas que a ti te detendrían (por impacto emocional o moral) para ellos no pesan igual. Dicho de forma simple: el sufrimiento de la víctima puede no “activarse” como freno.
Aun así, los estafadores que perduran no son solo narcisistas impulsivos. Suelen aprender a regular la grandiosidad: mantienen la convicción interna de superioridad, pero exhiben humildad, cercanía o devoción cuando les conviene. Cambian de máscara según el público: emprendedor innovador, benefactor, guía espiritual, experto técnico. Esa flexibilidad social alarga la vida del engaño.
También aparecen patrones cognitivos llamativos. Muchos charlatanes puntúan alto en fluidez verbal, persuasión y creatividad, pero más bajo en planificación a largo plazo y control de impulsos. Esto explica por qué, pese a su sofisticación, tantos acaban cayendo: la misma audacia que les permite iniciar fraudes enormes puede empujarles a decisiones torpes cuando el cerco se estrecha.
Lo más inquietante es que una parte de estos rasgos no es rara. Algunas estimaciones sitúan los rasgos psicopáticos clínicamente relevantes en torno a aproximadamente el 1% de la población, aunque varía según criterios y métodos. Traducido al mundo digital, eso significa que en plataformas con cientos o miles de millones de usuarios conviven —estadísticamente— millones de personas con muy baja empatía, y no necesitas cruzarte físicamente con ellas para convertirte en objetivo. Antes de internet, el número de depredadores con los que podías interactuar estaba limitado por geografía y círculos sociales. Hoy, el alcance es global. Las redes no crean más perfiles antisociales, pero sí les dan una megafonía y un radar.
Entender esta psicología importa porque recoloca la responsabilidad donde corresponde. No caíste en una estafa porque seas tonto o porque “te lo merecieras”. Caíste porque alguien con una arquitectura motivacional distinta te apuntó con técnicas afinadas durante décadas (o siglos) y adaptadas a un entorno que acelera la manipulación. Reconocer a un charlatán no consiste en “detectar el mal a simple vista”, sino en identificar patrones de conducta: promesas imposibles, presión por urgencia, relatos que bloquean la crítica (“si dudas es porque no crees”), exhibición selectiva de éxitos, y una narrativa diseñada para hacerte invertir identidad y reputación además de dinero.
En conjunto, la lección es clara: todo charlatán, desde los esquemas Ponzi clásicos hasta los vendedores de milagros y las conspiraciones gamificadas, opera con el mismo manual. Explotan la codicia con promesas imposibles, instrumentalizan la fe con esperanza falsa o convierten la paranoia en juego participativo. Funcionan porque nuestra mente usa atajos antiguos —sesgos, necesidad de pertenencia, búsqueda de confirmación— que los depredadores modernos han aprendido a hackear. En un mundo hiperconectado, reconocer esos patrones y entender tus propios puntos ciegos ya no es opcional: es una competencia básica para moverte en un entorno diseñado para persuadirte.
3 preguntas y respuestas clave
1) ¿Qué rasgos psicológicos aparecen con más frecuencia en estafadores eficaces?
Suelen destacar combinaciones de narcisismo (seguridad y grandiosidad), maquiavelismo (estrategia y manipulación social) y rasgos antisociales (baja culpa y escasa empatía), con gran habilidad verbal y capacidad para adaptar su máscara a cada audiencia.
2) ¿Por qué algunas personas pueden dañar a víctimas sin freno emocional?
Porque en perfiles con rasgos antisociales puede haber una respuesta emocional reducida ante el daño ajeno: la culpa, el miedo o la empatía que normalmente detienen a otros no actúan con la misma fuerza. Esto facilita mentir, presionar y explotar sin “coste interno” comparable.
3) ¿Qué cambia internet en el riesgo de caer en una estafa?
Multiplica el alcance. No hace falta estar cerca del estafador: puede probar miles de objetivos a la vez, optimizar mensajes y apoyarse en prueba social. El volumen de exposición aumenta, y con él la probabilidad de que alguien “especialista en manipulación” te encuentre en el momento oportuno.