Edición Especial · Abril 2026

Historia de la Inteligencia
Artificial

La guía turística que nadie te dio

De la pregunta de Turing a los modelos que escriben, pintan y razonan.
Recorre 75 años de historia, hito a hito, como si fuera un viaje con guía.

↓ haz clic en cada parada para leer más

75 años. 20 paradas. Un viaje.

Haz clic en cada hito para leer la historia completa. ¿La canción ya tiene más sentido?

🏛 Los orígenes · 1936–1969
1936
Antes de la IA
🧮
La máquina de Turing
FUNDACIÓN
Alan Turing describe una máquina abstracta capaz de ejecutar cualquier cálculo. Sin saberlo, acaba de inventar el ordenador.
Ver más
🗺 La parada
En 1936 Turing publica un artículo matemático sobre una máquina teórica capaz de simular cualquier proceso computacional. No existe físicamente, es un modelo mental. Pero ese modelo es la base de todo lo que viene después: el ordenador, Internet, la IA.
🎒 Dato de viajero
Turing no lo sabía aún, pero estaba construyendo los cimientos de una revolución que tardaría 80 años en explotar. Era como diseñar el motor de un cohete sin saber que la humanidad querría llegar a la Luna.
🎵 En la canción lo dice así:
"No fue magia, no fue azar, fue una pregunta difícil de contestar."
1950
La pregunta
🤔
La Prueba de Turing: ¿Pueden las máquinas pensar?
HITO
Turing publica "Computing Machinery and Intelligence" y propone el juego de imitación. Una pregunta que todavía no tiene respuesta definitiva.
Ver más
🗺 La parada
Turing propone un test: si un humano conversa por escrito con una máquina y no puede distinguirla de un humano, la máquina "piensa". Hoy ChatGPT supera esta prueba con facilidad, pero no porque piense: porque predice probabilidades de texto muy bien.
📍 Quién era Turing
El mismo matemático que descifró Enigma durante la Segunda Guerra Mundial. Un genio perseguido y destruido por el Estado por su orientación sexual. En 2013, la reina de Inglaterra le concedió el indulto póstumo.
🎵 En la canción:
"Turing miró al futuro y quiso saber / si una máquina algún día podría responder. / '¿Pueden pensar?', fue la cuestión, / y nació una prueba, conversación a conversación."
Alan Turing Test de Turing Inteligencia
1956
El nombre
🎓
Dartmouth: la IA recibe su nombre
FUNDACIÓN
John McCarthy convoca un seminario de verano en Dartmouth y acuña el término "Inteligencia Artificial". El campo nace oficialmente.
Ver más
🗺 La parada
John McCarthy, Marvin Minsky, Claude Shannon y otros reúnen a los mejores cerebros en Dartmouth College. La hipótesis central: "Todo aspecto del aprendizaje o cualquier característica de la inteligencia puede ser descrito con tal precisión que se puede construir una máquina para simularlo." Optimismo máximo. Era verano de 1956.
☕ Dato curioso
McCarthy pensaba que en 2 meses de trabajo intensivo resolverían los problemas fundamentales de la IA. 70 años después, seguimos en ello.
🎵 En la canción:
"En Dartmouth le dieron nombre al ideal, / inteligencia artificial. / Reglas, símbolos, lógica y razón, / primeros pasos de una gran transformación."
1966
El primer chatbot
💬
ELIZA: el primer chatbot de la historia
HITO
Joseph Weizenbaum crea en el MIT un programa que simula a un psicoterapeuta repitiendo preguntas. Engaña a humanos. Weizenbaum queda horrorizado por el resultado.
Ver más
🗺 La parada
ELIZA es un programa de 200 líneas que detecta palabras clave y reformula lo que el usuario dice como pregunta. "Me siento triste" → "¿Por qué te sientes triste?". Funcionaba sorprendentemente bien. Tanto que su propio creador, Weizenbaum, publicó un libro años después advirtiendo del peligro de confiar en máquinas.
😱 El susto de Weizenbaum
Su secretaria le pidió que saliera de la sala para poder hablar con ELIZA en privado. En ese momento supo que había creado algo con consecuencias que no había calculado.
🎵 En la canción:
"ELIZA escuchaba como terapeuta digital, / PARRY simulaba otra forma de hablar."
MIT Chatbot NLP
❄️ Los inviernos · 1970–1995
1970s
El frío
🥶
Primer invierno de la IA
INVIERNO
Las promesas no se cumplen. La potencia de cálculo es insuficiente. Los fondos se cortan. La IA entra en hibernación.
Ver más
🗺 La parada
El entusiasmo de los 60 choca con la realidad: traducir idiomas es infinitamente más complejo de lo previsto. Los chips de la época tienen menos potencia que una calculadora actual. Los fondos públicos y privados desaparecen. Es el "AI Winter": invierno nuclear de la investigación.
🌡 ¿Qué temperatura hace en un invierno de IA?
Laboratorios cerrados. Investigadores reconvertidos. Revistas sin artículos. El término "IA" se convierte en palabrota en los despachos de financiación. Era mejor llamarlo "sistemas de información avanzados".
🎵 En la canción:
"Pero no todo fue avanzar, / también hubo inviernos que cruzar. / Faltaban datos, potencia e inversión, / pero seguía viva la ambición."
1980s
Los expertos
📋
Sistemas expertos: reglas a mano
HITO
Si esto entonces aquello. Los sistemas expertos codifican el conocimiento humano en reglas lógicas. Funcionan, pero son rígidos y caros de mantener.
Ver más
🗺 La parada
MYCIN (1976) diagnostica infecciones bacterianas mejor que médicos junior. R1/XCON (1982) configura ordenadores DEC ahorrando 40 millones de dólares al año. Los sistemas expertos son el primer éxito comercial real de la IA. El problema: cada regla hay que escribirla a mano. El mundo real tiene demasiadas excepciones.
💸 El negocio real
Surgen empresas especializadas (LISP machines, shells de sistemas expertos). En 1988 ya es una industria de 1.000 millones de dólares. Pero la burbuja revienta cuando los costes de mantenimiento superan los beneficios.
🎵 En la canción:
"Sistemas expertos llegaron después, / con reglas de negocio una y otra vez."
1993
Otro frío
🧊
Segundo invierno de la IA
INVIERNO
Los sistemas expertos no escalan. Japón abandona su proyecto Quinta Generación. Segundo recorte masivo de fondos.
Ver más
🗺 La parada
Japón había prometido con su proyecto "Fifth Generation Computer" una IA que superaría a todo lo existente. 400 millones de dólares después, el proyecto se disuelve en 1992 sin cumplir lo prometido. Es el segundo invierno. Esta vez dura menos: Internet y los datos que trae cambiarán todo.
🧩 Qué aprendimos
Que programar reglas a mano no escala. Que hace falta un enfoque diferente: que las máquinas aprendan solas de los datos. Eso se llama Machine Learning, y estaba llegando.
🔥 Machine Learning & Deep Learning · 1997–2017
1997
La partida
Deep Blue vence a Kasparov
REVOLUCIÓN
El superordenador de IBM gana al campeón mundial de ajedrez. El mundo comprende por primera vez que las máquinas pueden superar al humano en tareas cognitivas.
Ver más
🗺 La parada
Mayo de 1997. Kasparov, el mejor jugador de ajedrez del mundo, pierde una partida ante Deep Blue. Es la primera vez que un ordenador vence a un campeón mundial en condiciones de torneo. Las portadas de los periódicos: "Máquina 1, Humanidad 0". Kasparov acusa a IBM de trampa. IBM retira la máquina sin darle revancha.
🎯 Pero había trampa
Deep Blue no "piensa". Evalúa 200 millones de posiciones por segundo usando fuerza bruta más heurísticas diseñadas por humanos. Es IA estrecha (ANI) en su máxima expresión: insuperable en ajedrez, incapaz de hacer nada más.
🎵 En la canción:
"Deep Blue jugó y ganó al campeón, / el mundo entendió su capacidad de cálculo y decisión."
IBM Deep Blue Kasparov ANI
2000s
El giro
📈
Machine Learning: las máquinas aprenden solas
REVOLUCIÓN
En lugar de programar reglas, se dan datos. La máquina encuentra los patrones. Amazon, Netflix y Spotify lideran la transformación.
Ver más
🗺 La parada
Machine Learning no es nuevo (las ideas vienen de los años 50), pero ahora hay dos cosas que antes no había: datos masivos (gracias a Internet) y capacidad de cómputo suficiente. El resultado: sistemas que aprenden de la experiencia sin ser programados explícitamente.
🛒 Ejemplos reales en tu día a día
El filtro de spam de Gmail. La recomendación "Quizás también te guste" de Amazon. El algoritmo de Spotify que construye tu Discover Weekly. Tu banco detectando fraude. Todo eso es Machine Learning.
🎵 En la canción:
"Machine Learning cambió el guion, / la máquina aprendía de la información."
Aprendizaje supervisado No supervisado Por refuerzo
2012
El salto
🧠
AlexNet y el Deep Learning
REVOLUCIÓN
Una red neuronal profunda gana el concurso de visión ImageNet con un margen aplastante. Empieza la era del Deep Learning.
Ver más
🗺 La parada
ImageNet es un concurso donde los sistemas de IA clasifican millones de imágenes. En 2012 AlexNet (Geoffrey Hinton, Universidad de Toronto) reduce el error de clasificación del 26% al 15%. El segundo mejor equipo se queda en 26%. Una diferencia sideral. Todos los equipos del mundo cambian su enfoque a redes neuronales profundas de la noche a la mañana.
🏆 El "Hinton Moment"
Geoffrey Hinton, considerado el "padrino del Deep Learning", lleva décadas defendiendo las redes neuronales cuando nadie las tomaba en serio. En 2012 la historia le da la razón. En 2018 gana el Premio Turing. En 2023 dimite de Google para poder hablar libremente sobre los riesgos de la IA.
🎵 En la canción:
"Y con Deep Learning llegó algo más: / ver, escuchar, traducir y detectar."
Geoffrey Hinton Redes neuronales GPU
2016
El GO
⚫⚪
AlphaGo: la IA aprende a intuir
REVOLUCIÓN
DeepMind vence al campeón mundial de Go, un juego con más posibles partidas que átomos en el universo. La IA no puede usar fuerza bruta: tiene que "intuir".
Ver más
🗺 La parada
El Go tiene 10^170 posibles estados. Ningún ordenador puede evaluarlos todos. DeepMind usa aprendizaje por refuerzo: AlphaGo juega millones de partidas contra sí mismo y aprende qué posiciones son prometedoras sin que nadie se lo diga. Lee Sedol, campeón mundial, pierde 4-1. En la partida 4 (que ganó Sedol) hay un movimiento humano tan creativo que la IA tardó en comprenderlo.
💡 Lo que esto significa
La IA ya no solo aplica reglas: genera estrategias propias. AlphaGo Zero (2017) aprende sin ningún dato humano, solo jugando contra sí mismo. En 3 días supera a AlphaGo. En 21 días supera a cualquier jugador de la historia.
DeepMind Google Aprendizaje por refuerzo
2017
La arquitectura
🔀
Transformers: "Attention Is All You Need"
REVOLUCIÓN
Google publica el paper que cambia todo. La arquitectura Transformer permite a la IA entender el contexto completo de un texto. Es la base de GPT, Claude, Gemini...
Ver más
🗺 La parada
Hasta 2017 las redes neuronales procesan texto palabra por palabra, de izquierda a derecha, como un lector lento. El mecanismo de "atención" permite al modelo mirar toda la frase a la vez y ponderar qué palabras son más relevantes para entender cada contexto. El nombre del paper: "Attention Is All You Need". Tenían razón.
🏗 El legado
GPT (OpenAI), BERT (Google), Claude (Anthropic), Gemini (Google), Llama (Meta)... todos son Transformers. Esa arquitectura de 2017 sigue siendo la base de todos los modelos de lenguaje actuales en 2026.
🎵 En la canción:
"Llegaron los Transformers, / cambió el lenguaje natural. / Modelos gigantes, / texto, imagen, código y mucho más."
Google Brain Transformers Attention
🚀 Era de los LLM · 2018–2023
2018
GPT-1
📝
GPT-1: OpenAI entra en escena
LLM
OpenAI publica el primer GPT. 117 millones de parámetros. Prometedor pero limitado. La semilla está plantada.
Ver más
🗺 La parada
OpenAI (fundada en 2015 por Elon Musk, Sam Altman y otros) publica GPT-1. 117 millones de parámetros entrenados con textos de libros. Genera texto coherente durante pocas frases, luego pierde el hilo. La idea de "preentrenar un modelo enorme y luego ajustarlo" (fine-tuning) es la novedad real.
OpenAI Sam Altman 117M parámetros
2020
El gigante
🏋️
GPT-3: 175.000 millones de parámetros
LLM
Un salto de escala que cambia la percepción: GPT-3 escribe artículos, código, poesía. Muchos periodistas publican textos generados por IA sin saberlo.
Ver más
🗺 La parada
GPT-3 tiene 175.000 millones de parámetros. Se entrena con 570 GB de texto de Internet. El salto de calidad es enorme: puede escribir código, completar emails, traducir, hacer resúmenes, responder preguntas. La API de OpenAI permite a cualquier empresa integrarlo. Empieza el negocio de la IA generativa.
📰 El experimento periodístico
The Guardian publica un artículo de opinión escrito íntegramente por GPT-3 titulado "A robot wrote this entire article. Are you scared yet, human?" El experimento demuestra que la mayoría de lectores no detectan la diferencia.
175B parámetros API Generación de texto
Nov 2022
El momento
🌍
ChatGPT: la IA llega a todo el mundo
REVOLUCIÓN
100 millones de usuarios en 2 meses. Ningún producto en la historia había crecido tan rápido. La IA ya no es cosa de expertos.
Ver más
🗺 La parada
30 de noviembre de 2022. OpenAI lanza ChatGPT como "experimento". En 5 días tiene 1 millón de usuarios. En 2 meses, 100 millones. Para comparar: Instagram tardó 2,5 años en alcanzar esa cifra. TikTok, 9 meses. Es el producto de consumo masivo más rápidamente adoptado de la historia.
💥 El efecto dominó
Microsoft invierte 10.000 millones en OpenAI e integra la IA en toda la suite Office (Copilot). Google lanza Bard en pánico (luego rebautizado Gemini). Meta publica Llama como open source. Anthropic (fundada por ex-empleados de OpenAI) lanza Claude. La carrera armamentística de la IA comienza.
🎵 En la canción:
"ChatGPT abrió la puerta, / la IA se volvió cercana. / Ya no era ciencia ficción, / entró en la empresa, la escuela y la mañana."
OpenAI 100M usuarios Sam Altman GPT-3.5
⚡ Hoy y mañana · 2023–2026
2023
Multimodal
👁
GPT-4 y la IA multimodal
HOY
GPT-4 entiende imágenes además de texto. Claude 3 supera a GPT-4 en benchmarks. Gemini Ultra llega. La carrera se acelera.
Ver más
🗺 La parada
GPT-4 (marzo 2023) procesa texto e imágenes. Anthropic lanza Claude 3 con capacidades superiores en razonamiento. Google responde con Gemini Ultra. La competición beneficia a todos: los modelos mejoran trimestre a trimestre. Los precios caen. La accesibilidad sube.
🏢 Los grandes jugadores en 2023
OpenAI (ChatGPT/GPT-4) · Anthropic (Claude) · Google (Gemini) · Meta (Llama, open source) · Mistral (Europa) · DeepSeek (China)
GPT-4 Claude Gemini Multimodal
2024
Agentes
🤖
Agentes de IA y IA en el trabajo
HOY
La IA ya no solo responde: actúa. Reserva vuelos, escribe código, navega por webs, gestiona emails. Los agentes autónomos entran en las empresas.
Ver más
🗺 La parada
En 2024 la IA deja de ser solo un chatbot. Los "agentes" son sistemas que pueden planificar, usar herramientas, navegar por internet, escribir y ejecutar código, y encadenar acciones para completar objetivos complejos. OpenAI lanza Operator. Anthropic lanza Computer Use. Google lanza Project Astra.
⚠️ El debate que empieza
La Ley de IA de la UE entra en vigor. Los debates sobre empleo, derechos de autor, privacidad y regulación se intensifican. ¿Quién es responsable cuando un agente toma una decisión incorrecta?
Agentes IA Ley IA UE Automatización
2025
Razonamiento
🧩
Modelos de razonamiento y DeepSeek
HOY
OpenAI o1 "piensa antes de responder". DeepSeek (China) lanza un modelo de razonamiento de alto nivel a una fracción del coste. El mapa del poder en IA se redistribuye.
Ver más
🗺 La parada
OpenAI o1 introduce el "chain-of-thought" a escala: el modelo razona internamente antes de responder, como un humano que piensa en voz alta. La calidad en matemáticas, ciencia y código mejora drásticamente. En paralelo, DeepSeek (empresa china) publica R1, un modelo comparable a o1 entrenado por una fracción del coste, poniendo en duda la ventaja de EE.UU.
💰 El terremoto económico
El lanzamiento de DeepSeek en enero de 2025 provoca una caída del 17% en las acciones de Nvidia en un solo día. Si se puede entrenar IA de calidad con menos GPUs, el negocio de los chips cambia por completo.
OpenAI o1 DeepSeek R1 Chain-of-thought China vs EE.UU.
2026
Ahora mismo
📍
Estás aquí. Abril 2026.
PRESENTE
GPT-4.5, Claude 3.7, Gemini 2.0. Modelos que escriben, codifican, diseñan, razonan. ANI en su máximo esplendor. AGI: todavía no. ASI: no en el horizonte visible.
Ver más
📍 Dónde estamos
Los modelos actuales (Claude Sonnet 4, GPT-4o, Gemini Ultra) son ANI en su máxima expresión: increíblemente capaces en tareas específicas, pero sin conciencia ni comprensión real. Automatizan tareas cognitivas, generan contenido, analizan datos, escriben código. La brecha entre lo que la IA puede hacer y lo que la mayoría de empresas hace con ella es enorme.
🔭 El horizonte
AGI (Inteligencia General Artificial): Sam Altman predice que llegará en los próximos años. Yann LeCun (Meta) cree que los Transformers actuales no son suficientes para lograrlo. El debate es genuino y los expertos están divididos. ASI (Superinteligencia): no en el horizonte visible. El debate sobre seguridad ya es urgente.
🎵 En la canción:
"ANI es la que usamos hoy, / estrecha, concreta, útil en su función. / AGI aún no ha llegado aquí, / y la superinteligencia sigue por venir."
ANI ✅ AGI ❓ ASI 🔭

De Turing a aquí.
75 años en un vistazo.

La historia de la IA no es una línea recta. Son inviernos, primaveras, revoluciones y preguntas sin respuesta. Lo que sí está claro: la herramienta ya existe. La pregunta es quién la usa mejor.

1950 — Prueba de Turing
1956 — Nace la IA
1997 — Deep Blue
2012 — Deep Learning
2017 — Transformers
2022 — ChatGPT
2026 — Tú aquí 📍