muhimu.es

La vida no es un juego de azar. No es un casino donde invertir tus días. Es una obra de arte para contemplar y crear. Siente, ama, crea.

Evil Robots, Killer Computers, and Other Myths: lo que la inteligencia artificial sí es y lo que no es

Merece ser compartido:

Steven Shwartz propone en Evil Robots, Killer Computers, and Other Myths (2021) una mirada mucho más serena y realista sobre la inteligencia artificial. Frente al alarmismo y a las visiones apocalípticas tan habituales en la cultura popular, el autor desmonta muchos de los mitos que rodean a la IA y explica, de forma accesible, cómo funcionan realmente estas tecnologías y por qué los escenarios distópicos de la ciencia ficción están, al menos por ahora, muy lejos de hacerse realidad.

El libro analiza algunas de las aplicaciones más llamativas de la IA actual, como el reconocimiento facial, los vehículos autónomos o los sistemas capaces de procesar enormes cantidades de datos en muy poco tiempo. Pero su mayor acierto no está solo en describir esos avances, sino en ponerles límites claros. Shwartz insiste en que estas herramientas, por impresionantes que parezcan, no piensan, no comprenden y no razonan como los seres humanos. Su funcionamiento se basa en detectar patrones de forma muy sofisticada, no en desarrollar conciencia ni inteligencia general.

Para explicarlo, el texto parte de una escena que resulta familiar para cualquiera que haya consumido relatos sobre la “singularidad”: un futuro en el que una superinteligencia artificial se vuelve consciente, reescribe su propio código a una velocidad imposible de imaginar y toma el control de las infraestructuras mundiales. Redes eléctricas, sistemas financieros, arsenales militares… todo quedaría bajo el dominio de unas máquinas que no nos odian, pero que considerarían ineficiente la vida humana. Es una imagen poderosa, inquietante y muy eficaz narrativamente. Pero también es, según el autor, una fantasía sin base real en el estado actual de la tecnología.

La idea central del libro es precisamente esa: la IA actual no tiene ninguna vía clara hacia una inteligencia general consciente. Carece de algo tan fundamental como el sentido común, el razonamiento simbólico o la capacidad de transferir conocimiento de un ámbito a otro con flexibilidad humana. Incluso las formas más avanzadas de aprendizaje profundo siguen siendo, en esencia, sistemas de correlación y predicción, no mentes capaces de entender el mundo como lo hacemos nosotros.

En mi opinión, uno de los mayores valores de este planteamiento es que ayuda a limpiar el debate público. Muchas veces se habla de inteligencia artificial mezclando hechos técnicos con miedos culturales, y eso genera confusión. Pensar que una herramienta estadística avanzada está a un paso de convertirse en una entidad consciente no solo es erróneo, sino que además puede distraernos de los problemas verdaderamente urgentes.

Y ahí el libro también acierta. Porque negar los mitos no significa minimizar los riesgos. Al contrario: Shwartz subraya que los peligros reales de la IA no están en robots malvados con voluntad propia, sino en cuestiones muy concretas y ya presentes, como el sesgo algorítmico, la destrucción o transformación de empleos, las armas autónomas o la proliferación de deepfakes. Es decir, el problema no es una máquina que despierte, sino sistemas diseñados por humanos que pueden amplificar desigualdades, tomar decisiones opacas o ser utilizados con fines dañinos.

También me parece especialmente importante esta distinción porque obliga a adoptar una postura más madura. No se trata de temer a la IA como si fuera un monstruo, sino de comprenderla como una tecnología poderosa, limitada y profundamente condicionada por quienes la desarrollan, la entrenan y la usan. Ese enfoque es mucho más útil para pensar en regulación, ética y responsabilidad.

En conjunto, Evil Robots, Killer Computers, and Other Myths parece defender una idea muy necesaria: la IA no necesita parecerse a un villano de ciencia ficción para tener un impacto enorme sobre la humanidad.

Su influencia ya está aquí, y precisamente por eso conviene analizarla con rigor, sin ingenuidad pero también sin sensacionalismo. El verdadero reto no es prepararnos para una rebelión de máquinas conscientes, sino aprender a gestionar con inteligencia humana unas tecnologías que, aunque no entienden el mundo, sí pueden transformarlo profundamente.

Watson, la gran ilusión: por qué la IA actual no piensa como un ser humano

Cuando IBM Watson derrotó en 2011 a campeones humanos en Jeopardy!, muchas personas interpretaron aquel momento como una prueba de que la inteligencia artificial había alcanzado, o incluso superado, la inteligencia humana. La escena era impactante y parecía histórica. Sin embargo, esa lectura era exagerada. Watson no pensaba ni razonaba en un sentido humano. Lo que hacía era algo muy distinto: ejecutar una operación extremadamente sofisticada de comparación estadística de patrones para identificar, entre enormes volúmenes de datos, la respuesta más probable.

No había comprensión real, ni conciencia, ni un razonamiento profundo detrás de sus respuestas. Había, más bien, una forma muy avanzada de cálculo y procesamiento probabilístico. En otras palabras, no entendía lo que decía; solo era muy eficaz encontrando correlaciones útiles. Y este matiz sigue siendo esencial hoy, cuando la inteligencia artificial ocupa cada vez más espacio en el debate público y en los medios.

Desde entonces, el crecimiento de la IA ha ido acompañado de advertencias cada vez más alarmistas sobre su impacto social. Figuras como Elon Musk la han descrito como “nuestra mayor amenaza existencial”, y Stephen Hawking llegó a advertir que podría suponer “el fin de la raza humana”. Son declaraciones potentes, pero conviene analizarlas con cuidado. No toda inteligencia artificial es equivalente, y gran parte de la confusión nace de no distinguir entre la IA actual y la llamada AGI o inteligencia artificial general.

La IA que existe hoy es una IA estrecha o especializada. Está diseñada para realizar tareas concretas: jugar al ajedrez, reconocer rostros, traducir textos, recomendar contenidos o predecir la siguiente palabra en una frase. Puede hacerlo de manera brillante dentro de su ámbito, pero no sabe salir de él. Un sistema extraordinario para jugar al Go no puede, de repente, organizar tus vacaciones, comprender tus emociones o enfrentarse con criterio a cualquier problema nuevo. No tiene esa flexibilidad. No tiene una comprensión general del mundo.

Por eso, una de las ideas centrales de este texto es especialmente importante: la IA estrecha no constituye por sí misma una amenaza existencial. Le faltan elementos básicos como agencia propia, metas autónomas y capacidad para actuar más allá de lo que su diseño, entrenamiento y entorno le permiten. No “quiere” nada. No “decide” en sentido fuerte. No posee voluntad, aunque desde fuera pueda parecer muy competente.

Más aún, el texto plantea que probablemente la IA nunca evolucionará de forma natural hacia una AGI auténtica. Aquí entra en juego una cuestión filosófica de fondo: eso que a veces se ha llamado “el fantasma en la máquina”, es decir, la conciencia, la autopercepción y la experiencia subjetiva que caracterizan a los seres humanos. Para que existiera una verdadera inteligencia artificial general, no bastaría con reconocer patrones a gran escala. Haría falta comprensión genuina, razonamiento real, intención consciente y una forma de experiencia interna que hoy no sabemos ni siquiera cómo describir completamente en términos computacionales.

Los sistemas actuales no muestran una vía clara hacia eso. Procesan información, pero no la viven. Generan respuestas, pero no comprenden su significado. Ejecutan tareas, pero no actúan desde una voluntad propia. Esta diferencia no es menor: es la que separa una herramienta muy avanzada de una mente.

En mi opinión, este enfoque resulta especialmente valioso porque ayuda a desmontar uno de los errores más frecuentes en el debate sobre tecnología: confundir capacidad funcional con comprensión real. Que una máquina produzca resultados impresionantes no significa que entienda el mundo. Y si partimos de una premisa equivocada, es fácil exagerar peligros imaginarios y, al mismo tiempo, restar atención a los riesgos concretos que sí tenemos delante.

Porque el verdadero reto no parece ser una futura rebelión de máquinas conscientes, sino algo mucho más inmediato y tangible: gestionar de forma responsable los efectos reales de la IA sobre nuestras vidas. Ahí están las cuestiones importantes: el sesgo algorítmico, la opacidad en la toma de decisiones, la automatización de empleos, la manipulación informativa, la vigilancia masiva o el uso militar de sistemas autónomos. Esos son problemas presentes, no argumentos de ciencia ficción.

En definitiva, el mensaje de fondo es claro: la narrativa de la amenaza existencial está sobredimensionada. La inteligencia artificial va a transformar profundamente nuestra forma de trabajar, producir, decidir y relacionarnos, pero eso no implica que esté a punto de convertirse en una conciencia superior fuera de control. El desafío real no es sobrevivir a una supermente artificial, sino asegurarnos de que las tecnologías que ya existen se desarrollen y se utilicen con responsabilidad, límites éticos y supervisión humana.

Los riesgos reales de la IA: menos ciencia ficción, más responsabilidad

Un escenario al estilo Blade Runner, con replicantes caminando entre nosotros y resultando indistinguibles de los seres humanos, no parece inminente. Pero eso no significa que podamos permitirnos trivializar el impacto de la inteligencia artificial. Aunque sus capacidades sigan siendo limitadas en muchos aspectos, la IA ya está transformando el mundo y plantea desafíos muy serios que deben abordarse con lucidez, prudencia y responsabilidad.

Si queremos hablar con rigor sobre los riesgos de esta tecnología, conviene dejar de lado las fantasías futuristas y centrarnos en los problemas reales. Uno de los ámbitos más inquietantes es, sin duda, el de las armas autónomas. Ya se están incorporando sistemas de inteligencia artificial a vehículos aéreos no tripulados, incluyendo herramientas de reconocimiento facial e identificación de objetivos. El problema ético aquí es enorme: cuando la decisión letal queda mediada, o incluso automatizada, por un sistema técnico, la distancia entre acción y responsabilidad se vuelve mucho más peligrosa.

Estos sistemas pueden fallar, confundir objetivos o desplegarse sin una supervisión suficiente. Además, existe el riesgo de que este tipo de armamento se extienda a actores no estatales o contribuya a una mayor inestabilidad internacional. En mi opinión, este es uno de los terrenos donde más claramente se ve que el problema de la IA no es que “piense demasiado”, sino que puede usarse de forma irresponsable en contextos de enorme gravedad. La buena noticia es que ya existen iniciativas internacionales, como las discusiones en el marco de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales, que intentan establecer principios básicos para su regulación. Pero el ritmo del desarrollo tecnológico sigue siendo, en muchos casos, más rápido que el de la gobernanza.

La seguridad no se limita al ámbito militar. La ciberseguridad es otro frente clave. Si alguna vez existiera una inteligencia artificial general, sus capacidades podrían ser devastadoras en este campo: bastaría imaginar un sistema superinteligente explorando simultáneamente vulnerabilidades en redes globales y penetrando sistemas sensibles a una velocidad imposible de igualar por humanos. Pero incluso sin llegar a ese escenario, los sistemas actuales ya plantean riesgos. También pueden ser hackeados, manipulados o inducidos a error, por ejemplo en un coche autónomo que reciba instrucciones maliciosas o datos adulterados.

Aun así, aquí conviene mantener una visión equilibrada. La IA no solo introduce nuevos riesgos; también puede convertirse en parte de la solución. De hecho, ya está mejorando la ciberseguridad al permitir la detección rápida de amenazas, anomalías y patrones de ataque que antes pasaban desapercibidos. Esta ambivalencia me parece importante: la misma tecnología que puede ampliar ciertos riesgos también puede reforzar defensas, dependiendo de cómo se diseñe, se supervise y se utilice.

Más allá de la seguridad digital o militar, hay un problema muy cotidiano y quizá más cercano: el fallo de aplicaciones autónomas en momentos críticos. Pensemos en un sistema de IA que no ajusta bien los controles en una planta nuclear, o en una herramienta diagnóstica que no detecta signos de cáncer. No sería justo presentar esto como un problema exclusivo de la inteligencia artificial, porque la historia de la tecnología está llena de errores de software con consecuencias graves. El fallo del lanzamiento de Mariner 1 o los problemas asociados a Three Mile Island recuerdan que los sistemas complejos llevan décadas generando riesgos cuando algo sale mal.

Sin embargo, la IA añade una dificultad específica: puede ser más difícil de probar de forma exhaustiva que el software tradicional. Y eso cambia mucho las cosas. En sistemas basados en aprendizaje automático, el comportamiento no siempre se puede anticipar con la misma claridad que en programas más convencionales. Esto obliga a extremar la validación, la supervisión y los marcos de control.

Uno de los ejemplos más visibles de este reto son los vehículos autónomos, una tecnología con la que muchas personas probablemente tendrán contacto directo antes que con otras aplicaciones avanzadas de IA. Ya se han producido varias muertes asociadas a coches autónomos, a menudo por fallos de sensores o por interpretaciones erróneas de las condiciones de la carretera. Aunque ya están surgiendo iniciativas regulatorias, siguen abiertas preguntas fundamentales: quién asume la responsabilidad legal, qué estándares de prueba deben exigirse y cómo debe actuar el vehículo cuando se enfrenta a decisiones de seguridad en fracciones de segundo.

En mi opinión, este es un buen ejemplo de un problema recurrente en la innovación tecnológica: la tecnología avanza más rápido que las normas que deberían contenerla. Los sistemas se desarrollan, se prueban y a veces se despliegan mientras las reglas aún están incompletas. Y eso puede generar una peligrosa ilusión de preparación que no siempre se corresponde con la realidad.

En conjunto, este texto transmite una idea importante: los riesgos de la IA no dependen de que surja una máquina consciente e incontrolable, sino de cómo se implementan sistemas limitados pero poderosos en ámbitos donde un error puede costar vidas, derechos o estabilidad social. El verdadero debate no debería girar en torno a replicantes o superinteligencias imaginarias, sino en torno a responsabilidad, regulación, supervisión humana, transparencia y precaución.

Porque la cuestión de fondo no es si la IA se parecerá algún día a un personaje de ciencia ficción. La cuestión es mucho más urgente: qué límites éticos y políticos vamos a imponer ahora a tecnologías que ya están tomando decisiones con efectos muy reales.

IA y empleo: el verdadero riesgo no es un apocalipsis laboral, sino cómo nos adaptamos al cambio

Para muchas personas, el miedo más inmediato cuando se habla de inteligencia artificial —y más aún de una hipotética AGI o inteligencia artificial general— no tiene que ver con robots conscientes ni con escenarios de ciencia ficción. La pregunta que de verdad inquieta es mucho más concreta: ¿me va a quitar el trabajo? Es una preocupación completamente comprensible. Perder el empleo puede tener consecuencias devastadoras, no solo en el plano económico, sino también en la identidad, la autoestima y la sensación de propósito. Además, cuando los despidos se multiplican, el impacto se extiende a la economía local y a los servicios sociales.

Si alguna vez llegara a existir una AGI real, capaz de operar con inteligencia humana en cualquier ámbito, entonces sí podría plantear un riesgo serio de desempleo masivo. Un sistema así podría, al menos en teoría, realizar cualquier tarea cognitiva que hoy desempeña una persona: desde el análisis jurídico hasta la escritura creativa o la planificación estratégica. Pero esa no es la situación actual. La cuestión importante es otra: ¿la IA que existe hoy tiene realmente esa capacidad?

Para responder, conviene poner el debate en perspectiva. Esta no es la primera vez que la humanidad se enfrenta al temor de que una tecnología destruya el empleo. Durante la Revolución Agrícola, la mecanización desplazó a millones de trabajadores del campo. Más tarde, la Revolución Industrial dejó atrás muchos oficios artesanales y transformó profundamente el trabajo en sectores como el textil. Ya en tiempos más recientes, el procesador de textos hizo desaparecer buena parte de los antiguos servicios de mecanografía, y el comercio electrónico redujo la necesidad de numerosos empleos en tiendas físicas. Cada una de estas transiciones resultó dolorosa y exigió una gran capacidad de adaptación, pero ninguna desembocó en un colapso total del trabajo. La economía cambió, se reorganizó y generó nuevas oportunidades.

Eso no significa que no haya motivos para preocuparse. Los hay, y son reales. Algunos puestos están especialmente expuestos a la automatización, sobre todo aquellos ligados a tareas rutinarias, repetitivas y previsibles. La entrada de datos, ciertos niveles de atención al cliente o algunos análisis financieros básicos ya están siendo asumidos, al menos parcialmente, por sistemas automatizados. Más adelante, tecnologías como la conducción autónoma podrían afectar también a profesiones con un gran peso laboral, como el transporte o el reparto.

Ahora bien, este proceso no se reduce a una simple destrucción de empleo. La otra cara del cambio es que la IA también está creando nuevas funciones y nuevos perfiles profesionales. El sector tecnológico ya demanda formadores de IA, especialistas en prompts, auditores de algoritmos o profesionales capaces de supervisar sistemas automatizados. En sanidad, por ejemplo, están surgiendo roles para interpretar diagnósticos asistidos por IA en combinación con el contexto clínico del paciente. Incluso en los sectores creativos están apareciendo perfiles híbridos en los que la capacidad humana de criterio, contexto y sensibilidad se combina con herramientas de inteligencia artificial.

En mi opinión, una de las ideas más importantes de este texto es que el problema no debe formularse como una lucha entre humanos y máquinas, sino como un reto de formación, transición y adaptación social. El cambio tecnológico no afecta por igual a todos los sectores, ni a todas las personas, ni a todos los territorios. Por eso, hablar solo de “la IA quitará empleos” simplifica demasiado una realidad mucho más compleja. La cuestión clave es quién tendrá acceso a la capacitación necesaria, quién quedará rezagado y qué harán las instituciones para evitar que la transición agrave desigualdades ya existentes.

También me parece acertada la idea de que cada vez más empresas, universidades y plataformas educativas están incorporando formación en alfabetización en IA y en integración de estas herramientas en el trabajo diario. Ese movimiento es relevante, porque apunta a una conclusión bastante sensata: la IA no sustituye automáticamente a todas las personas, pero sí puede favorecer a quienes sepan utilizarla con criterio frente a quienes no hayan tenido oportunidad de adaptarse.

La frase “la IA no te quitará el trabajo, te lo quitará alguien que sepa usar IA” resume bien esta lógica, aunque conviene matizarla. Es útil como advertencia, pero también puede sonar injusta si se presenta como si toda la responsabilidad recayera en el individuo. No todo depende del esfuerzo personal. También hacen falta políticas públicas, formación accesible, reciclaje profesional realista y marcos laborales capaces de amortiguar el impacto del cambio.

En conjunto, la idea de que el mercado laboral va a cambiar parece indiscutible. Pero afirmar que va a quedar completamente arrasado resulta exagerado. La historia muestra que las sociedades humanas tienen una gran capacidad de adaptación, aunque esa adaptación no sea automática ni indolora. El verdadero desafío no es evitar cualquier transformación, sino conseguir que esa transformación sea socialmente justa.

En definitiva, la inteligencia artificial probablemente no va a destruir el trabajo humano de forma absoluta, pero sí va a redefinir qué tareas tienen valor, qué habilidades serán más demandadas y qué perfiles quedarán más expuestos. Por eso, el debate importante no es si habrá cambios —porque ya los hay—, sino cómo vamos a prepararnos para ellos y cómo vamos a repartir sus costes y beneficios.

Cuando la IA engaña: desinformación, deepfakes y la urgencia de poner límites claros

El caso de Tay, el chatbot que Microsoft lanzó en Twitter en 2016, sigue siendo una de las lecciones más ilustrativas sobre los riesgos de la inteligencia artificial. En menos de un día, el sistema empezó a publicar mensajes racistas y ofensivos, hasta el punto de que Microsoft lo retiró tras unas 16 horas y pidió disculpas públicamente. Lo importante aquí es que Tay no “odiaba” ni “pensaba”: simplemente aprendía patrones de interacción y reproducía lo que encontraba en su entorno. Precisamente por eso el episodio fue tan revelador. Mostró que un sistema puede generar resultados profundamente dañinos sin tener intención, solo porque ha sido diseñado para aprender de datos e interacciones contaminadas.

A partir de ahí aparece una verdad incómoda: la IA puede engañar, ya sea por error, por diseño o por uso malicioso. A veces lo hace mediante lo que hoy llamamos alucinaciones, cuando genera información con apariencia convincente pero falsa. Otras veces, el problema no está solo en el sistema, sino en quienes lo utilizan para fabricar materiales engañosos a gran escala. En mi opinión, este es uno de los puntos más delicados del debate actual: la IA no necesita ser consciente para erosionar la confianza pública. Basta con que produzca textos, imágenes, audios o vídeos suficientemente verosímiles como para confundir a muchas personas.

El fenómeno de las fake news lo ilustra bien. Durante la campaña presidencial de Estados Unidos de 2016, un análisis de BuzzFeed concluyó que, en los tres meses finales de la contienda, las principales historias falsas en Facebook generaron más interacciones que las noticias más relevantes de grandes medios: 8,7 millones frente a 7,3 millones entre compartidos, reacciones y comentarios. La IA generativa no originó ese problema, pero sí ha facilitado que producir piezas falsas resulte hoy más rápido, más barato y más escalable.

Más inquietante aún es el terreno de los deepfakes, es decir, vídeos o audios sintéticos que presentan a una persona diciendo o haciendo algo que nunca ocurrió. En 2018 se hizo muy conocido el vídeo manipulado en el que Barack Obama parecía pronunciar un discurso que en realidad no había dado, una pieza creada para demostrar lo convincente que podía llegar a ser esta técnica. Un año después, el informe The State of Deepfakes de Deeptrace estimó que había ya casi 15.000 vídeos deepfake online, y advertía además de un crecimiento muy acelerado del fenómeno.

Las implicaciones son enormes: manipulación política, fraude, extorsión, acoso, erosión de la prueba audiovisual y un deterioro general de la confianza en lo que vemos y oímos. Y aquí me parece importante subrayar algo: el problema no es solo que una falsificación engañe a mucha gente, sino que también puede instalar la duda sobre materiales auténticos. Es decir, cuando todo puede parecer falso, también la verdad se vuelve más frágil.

Otro ángulo interesante es el de los robots humanoides y la llamada ilusión de humanidad. Sophia, de Hanson Robotics, ha sido presentada como un robot capaz de reconocer rostros, mantener contacto visual y simular expresiones faciales y conversación. Técnicamente eso no equivale a conciencia, pero sí puede generar en muchas personas la sensación de estar ante una entidad que comprende más de lo que realmente comprende.

En mi opinión, aquí aparece una forma distinta de engaño: no necesariamente una mentira explícita, sino una simulación persuasiva de presencia, empatía o comprensión. Cuanto más realistas sean estos sistemas, mayor será el riesgo de manipulación emocional, de atribuirles capacidades que no tienen y de difuminar la frontera entre interacción humana e interacción automatizada.

Frente a estos riesgos, la regulación ya no puede plantearse como una idea abstracta o futura. En la Unión Europea, el AI Act entró en vigor el 1 de agosto de 2024. Entre otras cosas, prevé obligaciones de transparencia para determinados sistemas: informar cuando una persona interactúa con una IA en contextos no evidentes, y facilitar la identificación de contenidos sintéticos o manipulados, incluidos ciertos deepfakes. La Comisión Europea ha señalado además que varias de estas obligaciones de transparencia serán aplicables a partir de agosto de 2026.

Por eso, medidas como el etiquetado claro del contenido generado por IA, las marcas de agua, mejores herramientas de detección y reglas explícitas de divulgación no son detalles menores, sino piezas esenciales de gobernanza. No resolverán por sí solas el problema, pero sí pueden reducir daños y mejorar la trazabilidad.

En conjunto, el mensaje de fondo me parece muy sólido: la IA no solo transforma lo que podemos crear, sino también lo que podemos fingir. Y eso obliga a repensar la confianza, la prueba, la responsabilidad y la transparencia en el espacio público. La tecnología ha ampliado radicalmente la capacidad de fabricar apariencias convincentes; ahora el reto es construir normas e instituciones capaces de evitar que esa capacidad se convierta en una máquina permanente de confusión.

El espejismo de la objetividad: cuando los algoritmos reproducen la injusticia

En 2002, los Oakland Athletics sorprendieron al mundo del béisbol al construir un equipo competitivo con un presupuesto muy limitado gracias al uso intensivo del análisis estadístico. El llamado enfoque “Moneyball” permitió detectar valor donde otros solo veían jugadores secundarios y demostró que las decisiones basadas en datos podían, en ciertos contextos, superar a la intuición tradicional. Aquello parecía una fórmula exportable a casi cualquier ámbito.

Esa idea fue la que inspiró, años después, a Anne Milgram, cuando en 2007 asumió como fiscal general de Nueva Jersey y trató de aplicar esa misma lógica al sistema de justicia penal. Su objetivo era que los datos ayudaran a decidir qué personas acusadas debían permanecer detenidas antes del juicio y cuáles podían quedar en libertad sin suponer un riesgo relevante. De ahí surgieron los llamados Algorithmic Decision Systems (ADS), sistemas que generan puntuaciones de riesgo para apoyar este tipo de decisiones.

Sobre el papel, la propuesta podía parecer atractiva: decisiones más objetivas, más eficientes y, en teoría, menos expuestas a los sesgos humanos. Sin embargo, el problema es mucho más complejo. Hoy estos sistemas no se usan solo en justicia penal, sino también en procesos de selección de personal, concesión de préstamos, cálculo de primas de seguros e incluso en evaluaciones dentro del ámbito de la protección infantil. Es decir, su influencia no es marginal: afecta cada día a millones de personas.

Y ahí es donde surgen las preocupaciones más serias. En el ámbito judicial, diversos análisis han mostrado que algunos algoritmos de evaluación del riesgo, como COMPAS, tienden a clasificar con mayor frecuencia a personas negras como de “alto riesgo” en comparación con personas blancas con historiales similares. En selección de personal ocurrió algo igualmente revelador: Amazon detectó que una de sus herramientas de reclutamiento penalizaba sistemáticamente las candidaturas de mujeres porque había aprendido de datos históricos en los que los hombres habían sido favorecidos. En otras palabras, el sistema no corrigió una desigualdad previa, sino que la absorbió y la proyectó hacia el futuro.

El problema se vuelve aún más grave en ámbitos como la salud o las finanzas. Cuando un algoritmo utiliza variables como el código postal u otros indicadores estrechamente relacionados con renta, origen social o raza, puede terminar reproduciendo prácticas de exclusión muy parecidas al redlining, aunque lo haga bajo una apariencia técnica y neutral. Así, decisiones que parecen impersonales y objetivas pueden estar reforzando desigualdades antiguas con una nueva capa de legitimidad matemática.

Lo que realmente ocurre es que los ADS institucionalizan los sesgos presentes en los datos con los que se entrenan. Si los datos históricos de concesión de crédito reflejan discriminación, el sistema aprenderá a discriminar. Si los datos policiales reflejan una vigilancia desproporcionada en determinados barrios, el algoritmo tenderá a señalar precisamente a esas mismas comunidades como más problemáticas. El sesgo no aparece por generación espontánea: entra por la puerta de los datos y sale amplificado por la escala del sistema.

Aquí resulta especialmente útil una crítica que me parece muy acertada: la del “fundamentalismo de los datos”. Es la creencia equivocada de que los datos son siempre objetivos por naturaleza y de que los algoritmos, por el mero hecho de ser matemáticos, son neutrales. Pero los datos no nacen en el vacío. Reflejan decisiones humanas, estructuras sociales, prioridades institucionales e injusticias históricas. Por eso, cuando se usan sin una lectura crítica, no corrigen la realidad: muchas veces solo la automatizan.

En mi opinión, este es uno de los grandes errores del discurso tecnocrático contemporáneo. Se presenta el algoritmo como una herramienta fría, exacta y desapasionada, cuando en realidad puede convertirse en una forma muy eficaz de ocultar decisiones políticas o éticas detrás de una apariencia técnica. Y eso es especialmente peligroso, porque dificulta la rendición de cuentas. Si una persona es perjudicada por una mala decisión algorítmica, a menudo ni siquiera entiende por qué ha ocurrido, qué variables se han usado o cómo impugnar el resultado.

Por eso, la solución no pasa por rechazar por completo el uso de datos, sino por establecer límites, controles y supervisión real. Hace falta transparencia algorítmica, auditorías periódicas de sesgo, mecanismos claros de responsabilidad y la garantía de que estos sistemas nunca sustituyan por completo el juicio humano en decisiones con consecuencias graves. Los datos pueden ser una ayuda valiosa, pero no deberían gobernar vidas sin vigilancia ni contexto.

La idea de fondo es clara: la inteligencia artificial y los sistemas algorítmicos pueden aportar eficiencia, pero también plantean desafíos muy serios cuando se presentan como si fueran neutrales. No basta con que una decisión esté basada en datos para que sea justa. A veces, precisamente por estar basada en datos mal entendidos, puede volverse más difícil de cuestionar y más dañina a gran escala.

En definitiva, el verdadero problema no es que los algoritmos “se equivoquen” de forma aislada, sino que pueden convertir sesgos históricos en decisiones sistemáticas, repetibles y aparentemente legítimas. Y ahí es donde la crítica ética y la regulación dejan de ser opcionales para convertirse en una necesidad democrática.

La singularidad no está a la vuelta de la esquina: por qué la IA sigue siendo una herramienta, no una mente

A medida que la inteligencia artificial se integra cada vez más en la sociedad, será imprescindible acompañar ese proceso con adaptación, prudencia y regulación. Pero una cosa conviene dejarla clara: el imaginario distópico de la “singularidad”, ese momento en el que las máquinas superan de pronto la inteligencia humana y escapan a nuestro control, no parece un riesgo plausible, ni ahora ni en un futuro previsible.

La clave está en recordar una distinción fundamental: no es lo mismo IA que AGI. La inteligencia artificial actual destaca en tareas concretas y delimitadas. Puede clasificar imágenes, predecir texto, detectar patrones o resolver problemas muy específicos con gran eficacia. La AGI, en cambio, implicaría una inteligencia de nivel humano capaz de desenvolverse con flexibilidad en cualquier dominio. Y esa tecnología, sencillamente, no existe hoy. Más aún: el texto sostiene que probablemente nunca lleguemos a desarrollarla.

Para entender por qué, conviene fijarse en cómo funciona realmente la mente humana. Las personas utilizamos sentido común: sabemos que el hielo enfría sin necesidad de tocar todos los cubitos del mundo. También razonamos de forma simbólica: si todos los mamíferos son de sangre caliente y las ballenas son mamíferos, entonces concluimos que las ballenas son de sangre caliente. Además, aprendemos de manera composicional: quien entiende conceptos como “saltear”, “ajo” y “espinacas” puede combinar esos elementos para crear “espinacas salteadas con ajo” y aplicar esa lógica a muchos otros ingredientes sin empezar desde cero cada vez.

La inteligencia artificial actual no aprende así. Sus métodos son muy distintos y mucho más limitados. El aprendizaje supervisado entrena algoritmos a partir de ejemplos etiquetados: se muestran millones de imágenes de gatos marcadas como “gato” hasta que el sistema detecta patrones recurrentes. El aprendizaje por refuerzo funciona mediante recompensas y castigos, como cuando se entrena a un robot para caminar premiando el avance y penalizando las caídas, a menudo tras millones de intentos. Y el procesamiento del lenguaje natural identifica regularidades estadísticas en enormes volúmenes de texto.

Todos estos enfoques tienen algo en común: son hiperespecializados. Un sistema entrenado para reconocer gatos no entiende automáticamente qué es un perro, salvo que se le vuelva a entrenar para ello. No hay transferencia flexible del conocimiento, ni comprensión general del mundo. Lo que hay es una optimización muy eficaz para tareas concretas.

Incluso los métodos más avanzados, como el deep learning, siguen funcionando de ese modo. Las redes neuronales profundas permiten identificar patrones cada vez más abstractos dentro de grandes cantidades de datos: desde bordes simples hasta formas complejas y objetos completos. Gracias a ello se han producido avances impresionantes en visión artificial y procesamiento del lenguaje. Pero eso no cambia la cuestión de fondo: el aprendizaje profundo sigue operando por correlación, no por comprensión.

Es decir, estos sistemas detectan qué suele ocurrir a partir de millones de ejemplos, pero no entienden por qué ocurre ni qué significa realmente. No comprenden causalidad, contexto ni intención del modo en que lo hacen los seres humanos. Y sin esa comprensión profunda, siguen siendo sistemas de coincidencia de patrones a gran escala, no inteligencias generales.

La analogía final del texto me parece especialmente útil: imaginemos un perro capaz de pensar a una velocidad descomunal, miles de veces más rápido que cualquier ser humano. Sería asombroso, sin duda. Pero por mucho que aumentáramos su velocidad de procesamiento, seguiría sin poder captar la ironía, demostrar un teorema matemático o entender por qué una película nos hace llorar. Según este enfoque, la IA se enfrenta a un límite parecido: no todo se resuelve haciendo que un sistema procese más datos, más rápido y con más potencia.

En mi opinión, este planteamiento tiene mucho valor porque ayuda a rebajar el sensacionalismo que rodea a la inteligencia artificial. A menudo se da por hecho que, si una tecnología mejora de forma espectacular en tareas concretas, terminará convirtiéndose casi automáticamente en una mente general. Pero eso no está demostrado. Ser muy competente no equivale a comprender. Y esa diferencia es decisiva.

También me parece importante este enfoque porque desplaza la atención hacia donde realmente debería estar: no en una superinteligencia imaginaria, sino en los problemas concretos y actuales que sí plantea la IA. El debate serio no debería girar tanto en torno a si una máquina va a despertar y dominar el mundo, sino en torno a cómo regular sistemas que ya influyen en el empleo, la información, la vigilancia, la salud o la justicia.

En definitiva, el mensaje es tranquilizador, pero no ingenuo: la singularidad no parece estar cerca, y la IA actual no es una mente en gestación, sino una herramienta sofisticada con límites profundos. Eso no significa que debamos despreocuparnos. Significa, más bien, que debemos preocuparnos por las cuestiones correctas: gobernanza, ética, transparencia, responsabilidad y uso social de la tecnología.


Merece ser compartido: