La historia de la inteligencia artificial es mucho más larga y curiosa de lo que suele pensarse. Mucho antes de que existieran ordenadores, ya aparecían en mitos, leyendas y obras filosóficas ideas sobre máquinas, criaturas artificiales y cerebros mecánicos capaces de pensar o de obedecer órdenes humanas. Con el tiempo, esos relatos fueron dando paso a teorías matemáticas, experimentos científicos y, finalmente, a la IA que hoy usamos a diario.
Hoy la inteligencia artificial atraviesa un momento de auge brutal: chatbots, modelos generativos de texto, imagen y vídeo, sistemas que conducen coches o ayudan a descubrir fármacos… Pero para entender dónde estamos hace falta recorrer un camino que arranca en la antigüedad y llega hasta los últimos lanzamientos como ChatGPT, Claude 3.5, Gemini, AlphaFold o los modelos agentivos. Ese viaje está lleno de avances, exageraciones, crisis de financiación y debates éticos que siguen muy vivos.
De mitos y alquimistas a los primeros autómatas
Mucho antes de la informática, distintos pueblos imaginaron formas de vida creadas por el ser humano. En la mitología griega se cuentan historias de gigantes de metal, estatuas animadas y criaturas fabricadas por los dioses o por artesanos divinos. Un ejemplo clásico es el guardián de Creta, que patrullaba la isla lanzando rocas contra los barcos enemigos y recorría tres veces al día su perímetro; según algunas fuentes fue forjado por Hefesto con ayuda de un cíclope, y funcionaba gracias a un fluido vital contenido en su interior que podía vaciarse retirando un simple tapón. La imagen de un “cuerpo mecánico” que se apaga al perder su energía recuerda, de lejos, a la idea moderna de desconectar una máquina.
En la misma tradición aparece la figura de Pigmalión, un escultor y rey que se enamora de una estatua creada por él mismo. Ruega a la diosa Venus que le conceda una mujer idéntica a su obra, y el mito juega con la frontera entre lo inanimado y lo vivo, anticipando ese deseo tan humano de fabricar compañeros artificiales que parezcan reales.
Durante el Renacimiento y la Edad Moderna, los alquimistas llevaron estas fantasías a terrenos más “técnicos”. El suizo Paracelso describió un método supuestamente capaz de producir un “hombre artificial” a partir de una mezcla de fluidos humanos y estiércol, incubada durante semanas y alimentada con sustancias especiales. El resultado sería un homúnculo, un pequeño ser vivo creado en laboratorio, que encarna la ambición de generar vida mediante procesos controlados por el hombre.
En la tradición judía medieval aparece el golem: una figura de barro que cobra movimiento cuando se le introduce en la boca un papel con un nombre sagrado. A diferencia de otros autómatas legendarios, este ser no habla; solo obedece órdenes simples y puede descontrolarse si no se gestiona bien el ritual. La idea de un agente poderoso pero sin lenguaje sofisticado y con un comportamiento algo torpe tiene bastante en común con ciertos sistemas de IA que ejecutan instrucciones sin entender del todo su contexto.
En el mundo islámico, manuscritos ismaelitas sobre alquimia abordaban el tema del takwīn, la creación artificial de vida. Autores atribuidos a Jabir ibn Hayyan describieron intentos de generar desde plantas hasta animales, explorando cómo procesos físicos y químicos podrían dar lugar a seres vivos. Años después, Goethe retomaría la figura del homúnculo en la segunda parte de Fausto, donde una criatura sintetizada en laboratorio aspira a convertirse en humano completo pero muere al romperse el frasco que lo contiene.
Ya en el siglo XIX, la imaginación literaria se vuelca en máquinas y criaturas artificiales con más base científica. Mary Shelley, con Frankenstein, presenta a un ser ensamblado a partir de cadáveres, reanimado mediante ciencia y electricidad, y Karel Čapek introduce en su obra teatral R.U.R. (Rossum’s Universal Robots) la propia palabra “robot”. Escritores como Samuel Butler especulan en ensayos sobre máquinas que evolucionan como seres vivos, y casos como el célebre jugador de ajedrez automático analizado por Edgar Allan Poe avivan la fascinación por artefactos capaces de simular inteligencia. La ciencia ficción no ha soltado el tema desde entonces.
El nacimiento de la lógica formal y la idea de computar el pensamiento
La IA moderna descansa en una hipótesis muy concreta: que el pensamiento humano puede describirse de forma tan precisa como para ser mecanizado mediante reglas y símbolos. Esto no salió de la nada. Filósofos chinos, indios y griegos ya habían creado en el primer milenio a. C. sistemas estructurados de deducción formal. Aristóteles formula la teoría del silogismo, Euclides convierte sus Elementos en un modelo de razonamiento axiomático, y en el ámbito islámico, al-Juarismi impulsa el álgebra, dando origen al término “algoritmo”. Más tarde, pensadores escolásticos europeos como Guillermo de Ockham o Duns Escoto profundizan en cómo razonar de forma rigurosa.
En la Edad Media tardía, Ramon Llull diseña máquinas lógicas hechas de discos giratorios con símbolos que, al combinarse, generan nuevas proposiciones. Llull imaginaba estos ingenios como dispositivos capaces de producir sistemáticamente todo el conocimiento posible a partir de verdades básicas. Sus ideas influyeron en Leibniz, que siglos más tarde soñaría con una “característica universal” que permitiera calcular los argumentos como se hace con los números.
En los siglos XVII y XVIII, figuras como Hobbes, Descartes y el propio Leibniz se preguntan si todo razonamiento racional no podría reducirse a una especie de cálculo mecánico. Hobbes afirma sin rodeos que razonar es “sumar y restar”, y Leibniz imagina un lenguaje en el que dos filósofos podrían resolver sus disputas simplemente sentándose con una pizarra a “calcular” quién tiene razón. Con ello se empieza a perfilar lo que más tarde se llamaría hipótesis del sistema físico de símbolos: la idea de que manipular símbolos de forma adecuada basta para producir inteligencia.
En el siglo XIX, la lógica matemática da un salto con George Boole y su álgebra de proposiciones, y con Frege, que introduce una notación formal muy precisa para el razonamiento. Sobre esos cimientos, Russell y Whitehead publican en 1913 los Principia Mathematica, un intento titánico de derivar toda la matemática a partir de unos pocos axiomas formales. David Hilbert lanza entonces el reto de saber si todo el razonamiento matemático puede formalizarse por completo.
La respuesta llega de forma sorprendente: Gödel demuestra que en cualquier sistema suficientemente potente siempre habrá proposiciones verdaderas que no se pueden probar dentro del propio sistema, y Turing y Church definen modelos abstractos de computación (la máquina de Turing y el cálculo lambda) que, a la vez que evidencian límites, muestran algo crucial para la IA: dentro de esos límites, cualquier procedimiento de razonamiento mecánico puede implementarse en una máquina. La tesis de Church-Turing sostiene que un dispositivo que manipule símbolos simples (como 0 y 1) puede, en principio, emular cualquier algoritmo concebible.
De las calculadoras mecánicas al cerebro electrónico
Paralelamente a estos avances teóricos, inventores como Leibniz, Jacquard, Babbage, Percy Ludgate, Leonardo Torres Quevedo o Vannevar Bush diseñan y construyen máquinas capaces de realizar distintos tipos de cálculo. Ada Lovelace, colaboradora de Babbage, llega a sugerir que su máquina analítica podría llegar a ser una especie de “máquina pensante o razonadora”, aunque advierte del peligro de exagerar sus capacidades. Es la primera vez que alguien habla en serio de una máquina programable con cierto aire de inteligencia.
Durante la Segunda Guerra Mundial aparecen los primeros ordenadores electrónicos de gran escala: la Z3 de Zuse, las máquinas de descifrado británicas como Colossus, o la ENIAC en Estados Unidos, basada en conceptos que retomaban las ideas teóricas de Turing y que, bajo la influencia de John von Neumann, se convertiría en la referencia de la arquitectura de ordenador moderna.
En las décadas de 1930 y 1940, varias corrientes científicas convergen de forma muy potente. Los estudios de neurología muestran que el cerebro funciona como una red de neuronas que emiten impulsos de “todo o nada”. Norbert Wiener define la cibernética, que describe el control y la retroalimentación en sistemas eléctricos. Claude Shannon formaliza la teoría de la información y el tratamiento de señales binarias. Y Turing demuestra que cualquier forma de computación puede expresarse de manera digital. Ese encaje sugiere algo que hoy nos parece obvio: quizá se pueda construir un “cerebro electrónico” capaz de aprender y razonar.
En los años 40 y 50, científicos de campos muy distintos (matemáticas, psicología, ingeniería, economía, ciencias políticas) empiezan a explorar esta idea. Alan Turing se adelanta en 1950 con su famoso artículo “Computing Machinery and Intelligence”, en el que plantea directamente la pregunta “¿pueden pensar las máquinas?” y propone sustituirla por un juego operativo: si una máquina mantiene una conversación por teletipo de modo que un humano no pueda distinguirla de otro ser humano, ¿no sería razonable decir que piensa? Es el germen del test de Turing, que se convierte en un hito conceptual para la IA.
En 1943, McCulloch y Pitts formulan el primer modelo de red neuronal artificial, demostrando que neuronas idealizadas con estados booleanos pueden implementar operaciones lógicas básicas. Su trabajo inspira a jóvenes como Marvin Minsky, que en 1951 construye junto a Dean Edmonds una de las primeras máquinas de red neuronal, la SNARC. Mientras tanto, otros investigadores como W. Grey Walter desarrollan pequeños robots autónomos controlados por electrónica analógica, sin ordenadores digitales, que ya muestran comportamientos exploratorios curiosos.
El nacimiento de la IA como disciplina: Dartmouth y los primeros programas
En 1956 se celebra el taller de Dartmouth, organizado por John McCarthy y Marvin Minsky con apoyo de Claude Shannon y Nathan Rochester. Allí se acuña el término “inteligencia artificial” y se enuncia una afirmación audaz: todo aspecto del aprendizaje o cualquier otra característica de la inteligencia puede describirse con suficiente precisión como para que una máquina pueda simularlo. Asisten figuras como Ray Solomonoff, Arthur Samuel, Allen Newell o Herbert Simon, que se convertirán en protagonistas de la primera ola de investigación en IA.
Newell, Simon y Shaw presentan en ese contexto el Logic Theorist, un programa capaz de demostrar teoremas de los Principia Mathematica, encontrando incluso demostraciones más elegantes que las originales. Simon llega a declarar que han resuelto el viejo problema mente-cuerpo al mostrar cómo un sistema material puede exhibir propiedades mentales. Esta postura, que Searle llamará más tarde “IA fuerte”, sostiene que un sistema simbólico apropiado no solo simula mente, sino que realmente la posee.
En los años inmediatamente posteriores, los resultados se acumulan y el ambiente es de optimismo total. Aparecen programas que resuelven problemas de álgebra, prueban teoremas de geometría, juegan a las damas a un nivel digno (como el sistema de Arthur Samuel, que ya utiliza aprendizaje automático para mejorar), o mantienen diálogos sencillos en lenguaje natural, como ELIZA, que emula a un terapeuta reformulando las frases del usuario. Para la prensa y buena parte del público, estos logros parecen casi milagrosos y refuerzan la sensación de que una máquina con inteligencia general está a la vuelta de la esquina.
En el MIT, Stanford, Carnegie Mellon y otras universidades se abren laboratorios dedicados por completo a la IA, a menudo con financiación generosa de agencias como ARPA (la futura DARPA). Se empiezan a explorar algoritmos de búsqueda general como el General Problem Solver, sistemas de planificación como STRIPS (que controlará al robot Shakey), representaciones del conocimiento como redes semánticas, y programas que tratan de comprender y generar lenguaje en micromundos controlados, como SHRDLU, que dialoga sobre un mundo de bloques de colores y puede manipularlos mediante un brazo robótico.
Primera gran crisis: límites técnicos y “invierno” simbólico
Con el paso de los años 60 a los 70, la realidad empieza a dar un baño de agua fría. Los programas que habían resultado tan espectaculares en versiones de juguete no escalan a problemas reales. Se topan una y otra vez con lo que se conoce como explosión combinatoria: el número de posibilidades a explorar crece de forma astronómica y hace inviables los algoritmos de búsqueda ingenuos, incluso con heurísticas.
A esto se suman otras dificultades: la potencia de cómputo es ridícula comparada con la actual, la memoria disponible obliga a trabajar con vocabularios minúsculos, y se empieza a comprender que resolver tareas aparentemente “simples” como reconocer caras o caminar en un entorno lleno de obstáculos es mucho más difícil que demostrar un teorema. Es lo que luego se llamará paradoja de Moravec: a las máquinas se les da relativamente bien lo que consideramos intelectual, pero fracasan en habilidades sensorio-motoras básicas.
Los intentos de capturar el sentido común en bases de datos simbólicas tropiezan con la enormidad del conocimiento del mundo cotidiano: harían falta miles de millones de hechos y reglas, y aun así los sistemas muy precisos terminan siendo frágiles porque la realidad rebosa excepciones y matices. Expresar con una lógica estricta lo que las personas manejan de forma difusa y flexible se vuelve desesperante. Como decía Gerald Sussman, usar un lenguaje totalmente preciso para hablar de conceptos esencialmente difusos no los vuelve más claros.
Las agencias financiadoras, que habían comprado el discurso optimista de los 60, se cansan de promesas incumplidas. Informes demoledores, como el ALPAC sobre traducción automática en 1966 o el Lighthill en el Reino Unido en 1973, recortan de golpe muchos programas de IA. DARPA redirige su presupuesto hacia proyectos con objetivos inmediatos y aplicaciones militares claras. Se acuña el término “invierno de la IA” para describir este periodo de desilusión y recortes, aunque historiadores como Thomas Haigh han matizado que el campo siguió vivo fuera de unos pocos grandes laboratorios.
Aunque la situación es complicada para ciertos grupos, otros investigadores continúan su trabajo, buscando enfoques alternativos. Se explora la programación lógica, nuevas formas de razonamiento de sentido común, representaciones más ricas, y se empieza a gestar una corriente crítica con el simbolismo puro que abrirá la puerta a métodos subsimbólicos como las redes neuronales, la lógica difusa o la computación evolutiva.
El auge de los sistemas expertos y el conocimiento como recurso clave
En los años 70 y 80, una parte de la comunidad de IA cambia de enfoque: en lugar de intentar construir sistemas generales, se centra en dominios muy acotados donde se puede capturar conocimiento experto de forma útil. Así nacen los sistemas expertos, programas que responden preguntas o toman decisiones en campos concretos (diagnóstico médico, química, configuración de equipos…) basándose en reglas proporcionadas por especialistas humanos.
Ejemplos emblemáticos son Dendral, que ayuda a identificar compuestos químicos a partir de espectros, o MYCIN, que sugiere diagnósticos y tratamientos para infecciones en sangre. Estos sistemas no entienden de sentido común general, pero en su nicho funcionan sorprendentemente bien y demuestran que codificar conocimiento detallado de un dominio puede producir aplicaciones rentables. Empresas como Digital Equipment Corporation adoptan este enfoque: su sistema R1, terminado en 1980, les ahorra decenas de millones de dólares al año configurando automáticamente equipos complejos.
El éxito llama la atención de gobiernos e industria. Japón lanza su ambicioso proyecto de computadoras de quinta generación, con la idea de crear máquinas que conversen, traduzcan y razonen como humanos. El Reino Unido responde con el proyecto Alvey y Estados Unidos con la Strategic Computing Initiative. En paralelo, florece una industria de hardware y software especializado: estaciones Lisp, herramientas de ingeniería del conocimiento, plataformas para desarrollar sistemas expertos… Durante unos años, la IA vive una auténtica burbuja comercial.
Sin embargo, pronto aparecen los problemas: los sistemas expertos son caros de mantener, difíciles de ampliar, incapaces de aprender de su experiencia y muy poco robustos fuera de su entorno controlado. La irrupción de ordenadores personales potentes hace innecesario el hardware especializado, y a finales de los 80 muchos proveedores de IA quiebran o son absorbidos. Se habla de un nuevo invierno, aunque en realidad lo que ocurre es una reestructuración: la IA se integra como conjunto de técnicas en sistemas más amplios, en lugar de venderse como “la” solución mágica.
Renacimiento subsimbólico: redes neuronales, robótica y computación blanda
Mientras el mundo empresarial mira hacia otro lado, en los 80 y 90 se consolidan linajes de investigación que hoy son esenciales. John Hopfield muestra que ciertas redes neuronales pueden almacenar y recuperar patrones de forma estable; Geoffrey Hinton trabaja en máquinas de Boltzmann y, junto a David Rumelhart, populariza la retropropagación, el algoritmo de entrenamiento de perceptrones multicapa que permite aprender representaciones internas complejas. Esta segunda ola conexionista revitaliza el estudio de las redes neuronales artificiales como modelos de aprendizaje distribuido.
Estas redes empiezan a superar el estado del arte en tareas específicas, como la predicción de estructuras secundarias de proteínas, y en 1990 Yann LeCun aplica redes convolucionales al reconocimiento de dígitos manuscritos, dando lugar a sistemas que bancos y servicios postales adoptan masivamente. Es la primera gran aplicación industrial de redes neuronales modernas.
En paralelo, la robótica vive una pequeña revolución conceptual. Investigadores como Rodney Brooks o Hans Moravec defienden que para lograr verdadera inteligencia no basta con razonar en un despacho lógico; hace falta un cuerpo que perciba, se mueva y sobreviva en el mundo. Proponen arquitecturas “de abajo arriba”, donde las capacidades sensorio-motoras se construyen sin recurrir a representaciones simbólicas pesadas, confiando en que una buena interacción con el entorno es la base sobre la que se apoyan las habilidades cognitivas superiores. Esta visión conecta con la teoría de la mente encarnada que gana terreno en ciencias cognitivas.
Al mismo tiempo, se consolidan herramientas de computación blanda: lógica difusa para tratar conceptos graduales, redes bayesianas y modelos de Márkov para razonamiento probabilístico, algoritmos evolutivos, modelos estocásticos… Todas estas técnicas renuncian a la precisión absoluta a cambio de poder gestionar incertidumbre, ruido y datos incompletos, lo que resulta muy práctico en muchos dominios reales.
En este ambiente nace también el aprendizaje por refuerzo moderno. A partir de ideas de psicólogos como Thorndike, Pávlov o Skinner, Richard Sutton y Andrew Barto formulan un marco teórico basado en procesos de decisión de Márkov y desarrollan algoritmos como el aprendizaje por diferencia temporal (TD). Programas como TD-Gammon aprenden a jugar al backgammon a nivel experto jugando contra sí mismos sin conocimiento previo explícito. Décadas más tarde, variantes de estos métodos estarán en el corazón de sistemas como AlphaGo y AlphaZero, que dominarán juegos complejos como el go o el ajedrez.
Normalización y madurez: agentes inteligentes, big data y Deep Blue
En los 90 y 2000, muchas técnicas de IA dejan de venderse como algo exótico y se convierten sencillamente en herramientas estándar dentro de la informática y la ingeniería. Se usan para minería de datos, diagnóstico médico, logística, reconocimiento de voz, scoring bancario o motores de búsqueda, pero rara vez se publicitan como “inteligencia artificial”. De hecho, muchos investigadores evitan conscientemente esa etiqueta para escapar del estigma de los viejos fracasos y acceder más fácilmente a financiación.
En estos años se consolida también el paradigma del agente inteligente: un sistema que percibe su entorno y actúa para maximizar alguna medida de éxito. Esta definición, inspirada en teoría de la decisión y economía, permite unificar bajo un mismo paraguas a programas muy diversos, desde controladores de robots hasta sistemas de recomendación. Libros de referencia como el de Russell y Norvig presentan la IA como el estudio de estos agentes, poniendo el foco en conductas racionales en lugar de obsesionarse con imitar exactamente la mente humana.
La capacidad de cómputo crece de manera brutal siguiendo la ley de Moore, y eso se nota. En 1997, Deep Blue derrota a Garry Kasparov en un match de ajedrez, combinando hardware especializado, búsqueda masiva y un enorme número de heurísticas. En 2005 y 2007, los desafíos DARPA de conducción autónoma muestran coches que recorren cientos de kilómetros en entornos desérticos y urbanos, respetando normas de tráfico y reaccionando a imprevistos. No hay una teoría nueva milagrosa detrás, sino muchísimo trabajo de ingeniería y el hecho de que ahora las máquinas son millones de veces más rápidas que en los años 50.
En paralelo, la expansión de internet y la digitalización generalizada producen cantidades inmensas de datos. A finales de los 2000 ya se habla de big data, y conjuntos de datos etiquetados como Labeled Faces in the Wild o ImageNet se convierten en estándares para entrenar y evaluar algoritmos de visión por computador. También surgen representaciones vectoriales del lenguaje como word2vec, que codifican palabras en espacios numéricos donde operaciones simples capturan relaciones semánticas sorprendentes.
En 2011, el sistema Watson de IBM vence a dos grandes campeones de Jeopardy!, combinando procesamiento de lenguaje natural, recuperación de información masiva y modelos probabilísticos. Este tipo de hitos hacen evidente que la IA ya no es solo un asunto académico, sino una tecnología capaz de competir con humanos expertos en tareas complejas.
La revolución del aprendizaje profundo y el giro hacia la AGI
El punto de inflexión llega en 2012 con AlexNet, una red neuronal profunda entrenada sobre ImageNet que arrasa en un concurso de reconocimiento de imágenes con un margen de error muchísimo menor que el resto de participantes. Su arquitectura de múltiples capas convolucionales, combinada con técnicas como dropout y funciones de activación ReLU, demuestra que, con suficientes datos y potencia de cálculo (incluyendo GPUs), las redes profundas pueden extraer automáticamente características útiles sin necesidad de ingeniería manual extrema.
A partir de ahí, el llamado deep learning se impone en reconocimiento de voz, traducción automática, análisis de texto, visión por ordenador, juegos y un larguísimo etcétera. Muchos métodos alternativos se abandonan o se relegan a nichos. Investigadores como Geoffrey Hinton recuerdan que en los 80 y 90 simplemente faltaban datos etiquetados y capacidad de cómputo; una vez resuelto eso, las redes profundas demuestran su potencial.
Con la ola de éxitos, reaparece con fuerza el interés por la inteligencia artificial general (AGI), es decir, sistemas con capacidades amplias y flexibles comparables (o superiores) a las humanas. Autores como Nils Nilsson, John McCarthy o Marvin Minsky retoman el debate, y Ben Goertzel populariza el término AGI, organizando conferencias y revistas específicas. En 2010 nace DeepMind, en 2015 se funda OpenAI, y poco después aparecerán otros actores como Anthropic, todos con la vista puesta en modelos de propósito general que puedan aprender a resolver prácticamente cualquier tarea.
Al mismo tiempo, libros como La singularidad está cerca de Ray Kurzweil o Superintelligence de Nick Bostrom ponen sobre la mesa escenarios de superinteligencias que podrían transformar radicalmente la sociedad, para bien o para mal. Se empieza a hablar en serio de riesgos existenciales asociados a la IA y del llamado problema de alineación: cómo asegurarse de que sistemas muy potentes persiguen objetivos compatibles con los valores humanos y no desarrollan comportamientos peligrosos por pura lógica instrumental.
Modelos fundacionales, IA generativa y el boom de los grandes modelos de lenguaje
En 2017, un equipo de Google publica el artículo “Attention Is All You Need”, presentando la arquitectura Transformer. Su idea central es el mecanismo de autoatención, que permite que cada parte de una secuencia “mire” a todas las demás para decidir qué es relevante, eliminando la necesidad de recurrencias complejas. Esta arquitectura se convierte rápidamente en el estándar para modelos de lenguaje grandes (LLM) y, más tarde, para modelos multimodales.
OpenAI lanza GPT-3 en 2020, un modelo entrenado con cantidades enormes de texto no etiquetado capaz de escribir, traducir, programar y contestar preguntas con una fluidez que sorprende incluso a muchos expertos. DeepMind presenta Gato, un modelo “generalista” que puede controlar robots, jugar videojuegos o dialogar usando la misma red. A estos modelos se les llama “fundacionales” porque sirven como base para un sinfín de tareas posteriores con ajustes relativamente pequeños.
El 30 de noviembre de 2022 aparece ChatGPT y en cuestión de semanas revienta todas las métricas de adopción: más de 100 millones de usuarios en dos meses, presencia constante en medios y redes, y un aluvión de usos creativos, desde escribir código hasta generar ideas de marketing o ayudar a estudiar. La reacción en la industria es inmediata: Google declara un “código rojo” y acelera el desarrollo de su familia Gemini, Microsoft integra la tecnología de OpenAI en Bing y en otros productos, y surgen docenas de competidores centrados en IA generativa.
Paralelamente se popularizan modelos de imagen como Stable Diffusion, que permiten crear ilustraciones fotorrealistas o artísticas a partir de texto, y comienzan a asomar sistemas de texto a vídeo como Sora, capaces de generar clips de hasta un minuto con un nivel de detalle impresionante, y plataformas como Instagram integra IA en las historias muestran aplicaciones prácticas de IA en redes sociales. Herramientas como 15.ai habían demostrado ya antes el potencial de la clonación de voz con muy pocos segundos de audio, algo que después grandes empresas confirmarían como técnicamente factible.
La carrera no se limita al texto: aparecen modelos multimodales que combinan imagen, audio y vídeo en una misma plataforma, y empiezan a perfilarse arquitecturas agentivas, donde varios modelos especializados colaboran para completar tareas complejas de manera casi autónoma. Los fabricantes de chips como NVIDIA se convierten en gigantes bursátiles, impulsados por la demanda brutal de GPU para entrenar y desplegar estos modelos.
En 2024, laboratorios como Anthropic lanzan familias como Claude 3 y Claude 3.5, con versiones más ligeras y otras de máximo rendimiento que compiten de tú a tú con los modelos de OpenAI y Google. En paralelo, se ensayan nuevos benchmarks como ARC-AGI, diseñados por François Chollet para medir capacidad de razonamiento abstracto más allá del puro ajuste de patrones. Modelos de razonamiento como OpenAI o3 alcanzan puntuaciones muy altas en estas pruebas, superando incluso medias humanas en ciertos casos, lo que alimenta el debate sobre si estamos rozando o no las primeras formas de AGI.
Impacto social, riesgos y regulación de la inteligencia artificial
Este crecimiento acelerado trae consigo preocupaciones muy serias. Por un lado, investigaciones de autoras como Cathy O’Neil muestran cómo modelos de riesgo mal diseñados contribuyeron a la crisis financiera de 2008. Otros estudios evidencian sesgos raciales y de otro tipo en algoritmos usados en el sistema judicial, en contratación o en crédito. El escándalo alrededor de COMPAS y su uso en sentencias penales en Estados Unidos dispara el debate público sobre equidad, transparencia y responsabilidad algorítmica.
Por otro lado, el auge de las redes sociales basadas en maximizar la interacción, la desinformación a gran escala y el uso no regulado de datos personales plantean preguntas incómodas sobre hasta qué punto estamos delegando el control de nuestra atención y nuestras decisiones a sistemas de recomendación y predicción opacos. Tras las elecciones estadounidenses de 2016, muchos investigadores de IA redirigen su trabajo hacia temas de seguridad, explicabilidad, gobernanza y valores éticos.
Al mismo tiempo, voces influyentes del sector piden prudencia. En 2023 se publica la carta abierta “Pause Giant AI Experiments”, firmada por decenas de miles de personas, entre ellas Elon Musk, Yoshua Bengio o Steve Wozniak, reclamando una pausa temporal en el entrenamiento de modelos más potentes que GPT-4 hasta tener garantías razonables de control y seguridad. Otros expertos consideran que frenar en seco no es realista, pero coinciden en que hacen falta mecanismos de supervisión, auditoría independiente y regulación proporcionada al riesgo.
Desde el ámbito político, la Comisión Europea propone definiciones de IA y marcos regulatorios que distinguen usos de alto riesgo (como identificación biométrica masiva, scoring social o sistemas en sanidad y justicia) de aplicaciones más ligeras. La idea es permitir la innovación pero exigiendo requisitos más duros de transparencia, pruebas, documentación y supervisión humana allí donde un fallo puede tener consecuencias graves para los derechos fundamentales.
En países como España se despliegan estrategias nacionales de IA dentro de planes más amplios de digitalización, con inversiones públicas y privadas dedicadas a impulsar proyectos en sanidad, industria, transporte, agricultura o administración pública. Los informes oficiales muestran que un porcentaje creciente de empresas ya utiliza IA para automatizar flujos de trabajo, analizar imágenes, reconocer voz o apoyar la toma de decisiones, aunque la adopción sigue concentrada en sectores muy tecnológicos.
En paralelo, se abren debates laborales sobre automatización y empleo, así como dilemas filosóficos sobre qué significa la inteligencia, la creatividad o incluso la conciencia cuando hay sistemas capaces de generar textos, imágenes, música o código indistinguibles de los humanos en muchos contextos. La cuestión ya no es solo qué pueden hacer las máquinas, sino qué queremos que hagan y bajo qué condiciones.
Mirando en perspectiva, la historia de la inteligencia artificial es la historia de un sueño antiguo que pasa por mitos de gigantes de metal y golems de barro, se formaliza en la lógica y la computación del siglo XX, tropieza una y otra vez con sus propios límites, se reinventa con nuevas técnicas y hoy se ha colado en casi todos los rincones de nuestra vida digital; entender ese recorrido ayuda a situar mejor tanto el entusiasmo como las dudas que despierta una tecnología que, casi sin darnos cuenta, estamos dejando que influya en cómo aprendemos, trabajamos, nos informamos y nos relacionamos, y que exige, más que nunca, una combinación de rigor científico, responsabilidad social y sentido común colectivo.
