Brevísima historia de la inteligencia artificial (IA)

, Author

1308 El poeta y teólogo catalán Ramon Llull publica Ars generalis ultima (El último arte general), perfeccionando su método de utilizar medios mecánicos basados en el papel para crear nuevos conocimientos a partir de combinaciones de conceptos.

1666 El matemático y filósofo Gottfried Leibniz publica Dissertatio de arte combinatoria (Sobre el arte combinatorio), siguiendo a Ramon Llull en la propuesta de un alfabeto del pensamiento humano y argumentando que todas las ideas no son más que combinaciones de un número relativamente pequeño de conceptos simples.

1726 Jonathan Swift publica Los viajes de Gulliver, que incluye una descripción del Motor, una máquina en la isla de Laputa (y una parodia de las ideas de Llull): «un Proyecto para mejorar el Conocimiento especulativo mediante Operaciones prácticas y mecánicas». Utilizando este «artilugio», «la persona más ignorante puede escribir libros de filosofía, poesía, política, derecho, matemáticas y teología, con un coste razonable y con un poco de trabajo corporal, sin la menor ayuda del genio o del estudio».

1763 Thomas Bayes desarrolla un marco para razonar sobre la probabilidad de los acontecimientos. La inferencia bayesiana se convertirá en un enfoque líder en el aprendizaje automático.

1854 George Boole argumenta que el razonamiento lógico podría realizarse sistemáticamente de la misma manera que la resolución de un sistema de ecuaciones.

1898 En una exposición eléctrica en el recién terminado Madison Square Garden, Nikola Tesla hace una demostración del primer barco controlado por radio del mundo. El barco estaba equipado con, como describe Tesla, «una mente prestada».

1914 El ingeniero español Leonardo Torres y Quevedo demuestra la primera máquina de jugar al ajedrez, capaz de realizar finales de rey y torre contra rey sin ninguna intervención humana.

1921 El escritor checo Karel Čapek introduce la palabra «robot» en su obra R.U.R. (Rossum’s Universal Robots). La palabra «robot» viene de la palabra «robota» (trabajo).

1925 Houdina Radio Control lanza un coche sin conductor controlado por radio, que recorre las calles de la ciudad de Nueva York.

1927 Se estrena la película de ciencia ficción Metrópolis. En ella aparece una doble robótica de una campesina, María, que desata el caos en el Berlín de 2026. Fue el primer robot representado en una película, inspirando el aspecto Art Deco de C-3PO en La Guerra de las Galaxias.

1929 Makoto Nishimura diseña Gakutensoku, que en japonés significa «aprender de las leyes de la naturaleza», el primer robot construido en Japón. Podía cambiar su expresión facial y mover la cabeza y las manos mediante un mecanismo de presión de aire.

1943 Warren S. McCulloch y Walter Pitts publican «A Logical Calculus of the Ideas Immanent in Nervous Activity» en el Bulletin of Mathematical Biophysics. Este influyente artículo, en el que discuten redes de «neuronas» artificiales idealizadas y simplificadas y cómo podrían realizar funciones lógicas sencillas, se convertirá en la inspiración de las «redes neuronales» basadas en ordenadores (y más tarde en el «aprendizaje profundo») y en su popular descripción como «imitación del cerebro».

1949 Edmund Berkeley publica Giant Brains: Or Machines That Think (Cerebros gigantes o máquinas que piensan) en el que escribe: «Recientemente ha habido muchas noticias sobre extrañas máquinas gigantes que pueden manejar información con gran velocidad y habilidad….. Estas máquinas son similares a lo que sería un cerebro si estuviera hecho de hardware y cables en lugar de carne y nervios… Una máquina puede manejar información; puede calcular, concluir y elegir; puede realizar operaciones razonables con información. Una máquina, por lo tanto, puede pensar»

1949 Donald Hebb publica Organization of Behavior: A Neuropsychological Theory en el que propone una teoría sobre el aprendizaje basada en conjeturas sobre las redes neuronales y la capacidad de las sinapsis para fortalecerse o debilitarse con el tiempo.

1950 «Programming a Computer for Playing Chess» de Claude Shannon es el primer artículo publicado sobre el desarrollo de un programa informático para jugar al ajedrez.

1950 Alan Turing publica «Computing Machinery and Intelligence» en el que propone «el juego de imitación» que más tarde se conocerá como el «Test de Turing.»

1951 Marvin Minsky y Dean Edmunds construyen el SNARC (Stochastic Neural Analog Reinforcement Calculator), la primera red neuronal artificial, utilizando 3000 tubos de vacío para simular una red de 40 neuronas.

1952 Arthur Samuel desarrolla el primer programa informático de juego de damas y el primer programa informático que aprende por sí mismo.

31 de agosto de 1955 Se acuña el término «inteligencia artificial» en una propuesta para un «estudio de la inteligencia artificial de 2 meses y 10 hombres» presentada por John McCarthy (Dartmouth College), Marvin Minsky (Universidad de Harvard), Nathaniel Rochester (IBM) y Claude Shannon (Bell Telephone Laboratories). El taller, que tuvo lugar un año después, en julio y agosto de 1956, se considera generalmente como la fecha oficial de nacimiento del nuevo campo.

Diciembre de 1955 Herbert Simon y Allen Newell desarrollan el Logic Theorist, el primer programa de inteligencia artificial, que acabaría demostrando 38 de los primeros 52 teoremas de los Principia Mathematica de Whitehead y Russell.

1957 Frank Rosenblatt desarrolla el Perceptron, una de las primeras redes neuronales artificiales que permite el reconocimiento de patrones basada en una red de aprendizaje informático de dos capas. El New York Times informó de que el Perceptrón era «el embrión de un ordenador electrónico que espera ser capaz de caminar, hablar, ver, escribir, reproducirse y ser consciente de su existencia». The New Yorker lo calificó de «máquina extraordinaria… capaz de lo que equivale a pensar».

1958 John McCarthy desarrolla el lenguaje de programación Lisp, que se convierte en el lenguaje de programación más popular utilizado en la investigación de la inteligencia artificial.

1959 Arthur Samuel acuña el término «aprendizaje automático», informando sobre la programación de un ordenador «para que aprenda a jugar una partida de damas mejor que la que puede jugar la persona que escribió el programa».

1959 Oliver Selfridge publica «Pandemonium: A paradigm for learning» en las Actas del Simposio sobre Mecanización de los Procesos de Pensamiento, en el que describe un modelo para un proceso por el que los ordenadores podrían reconocer patrones que no han sido especificados de antemano.

1959 John McCarthy publica «Programs with Common Sense» en las Actas del Simposio sobre Mecanización de los Procesos de Pensamiento, en el que describe el Advice Taker, un programa para la resolución de problemas mediante la manipulación de oraciones en lenguajes formales con el objetivo final de hacer programas «que aprendan de su experiencia tan eficazmente como los humanos.»

1961 El primer robot industrial, Unimate, comienza a trabajar en una línea de montaje en una planta de General Motors en Nueva Jersey.

1961 James Slagle desarrolla SAINT (Symbolic Automatic INTegrator), un programa heurístico que resolvía problemas de integración simbólica en el cálculo de primer año.

1964 Daniel Bobrow completa su tesis doctoral en el MIT titulada «Natural Language Input for a Computer Problem Solving System» y desarrolla STUDENT, un programa informático de comprensión del lenguaje natural.

1965 Herbert Simon predice que «las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que pueda hacer el hombre».

1965 Hubert Dreyfus publica «Alchemy and AI», en el que argumenta que la mente no es como un ordenador y que hay límites más allá de los cuales la IA no progresaría.

1965 I.J. Good escribe en «Speculations Concerning the First Ultraintelligent Machine» (Especulaciones sobre la primera máquina ultrainteligente) que «la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil como para decirnos cómo mantenerla bajo control».

1965 Joseph Weizenbaum desarrolla ELIZA, un programa interactivo que mantiene un diálogo en inglés sobre cualquier tema. Weizenbaum, que quería demostrar la superficialidad de la comunicación entre el hombre y la máquina, se sorprendió por el número de personas que atribuían al programa informático sentimientos similares a los humanos.

1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg y Carl Djerassi comienzan a trabajar en DENDRAL en la Universidad de Stanford. El primer sistema experto, automatizó el proceso de toma de decisiones y el comportamiento de resolución de problemas de los químicos orgánicos, con el objetivo general de estudiar la formación de hipótesis y construir modelos de inducción empírica en la ciencia.

1966 El robot Shakey es el primer robot móvil de uso general capaz de razonar sobre sus propias acciones. En un artículo de la revista Life de 1970 sobre esta «primera persona electrónica», se cita a Marvin Minsky diciendo con «certeza» «En un plazo de tres a ocho años tendremos una máquina con la inteligencia general de un ser humano medio».

1968 Se estrena la película 2001: Odisea del espacio, en la que aparece Hal, un ordenador sensible.

1968 Terry Winograd desarrolla SHRDLU, uno de los primeros programas informáticos de comprensión del lenguaje natural.

1969 Arthur Bryson y Yu-Chi Ho describen la retropropagación como un método de optimización de sistemas dinámicos de varias etapas. Se trata de un algoritmo de aprendizaje para redes neuronales artificiales multicapa que ha contribuido significativamente al éxito del aprendizaje profundo en las décadas de 2000 y 2010, una vez que la potencia de cálculo ha avanzado lo suficiente como para permitir el entrenamiento de grandes redes.

1969 Marvin Minsky y Seymour Papert publican Perceptrons: An Introduction to Computational Geometry, en el que destacan las limitaciones de las redes neuronales simples. En una edición ampliada publicada en 1988, respondieron a las afirmaciones de que sus conclusiones de 1969 redujeron significativamente la financiación de la investigación en redes neuronales: «Nuestra versión es que el progreso ya se había detenido prácticamente por la falta de teorías básicas adecuadas… a mediados de la década de 1960 se habían realizado numerosos experimentos con perceptrones, pero nadie había sido capaz de explicar por qué eran capaces de reconocer ciertos tipos de patrones y no otros».

1970 El primer robot antropomórfico, el WABOT-1, se construye en la Universidad de Waseda (Japón). Constaba de un sistema de control de las extremidades, un sistema de visión y un sistema de conversación.

1972 En la Universidad de Stanford se desarrolla MYCIN, un primer sistema experto para identificar las bacterias que causan infecciones graves y recomendar antibióticos.

1973 James Lighthill informa al Consejo Británico de Investigación Científica sobre el estado de la investigación en inteligencia artificial, concluyendo que «en ninguna parte del campo los descubrimientos realizados hasta ahora han producido el gran impacto que entonces se prometió», lo que lleva a reducir drásticamente el apoyo gubernamental a la investigación en IA.

1976 El informático Raj Reddy publica «Speech Recognition by Machine: A Review» en las Actas del IEEE, en el que resume los primeros trabajos sobre el Procesamiento del Lenguaje Natural (PLN).

1978 En la Universidad Carnegie Mellon se desarrolla el programa XCON (eXpert CONfigurer), un sistema experto basado en reglas que ayuda a ordenar los ordenadores VAX de DEC seleccionando automáticamente los componentes en función de los requisitos del cliente.

1979 El Stanford Cart cruza con éxito una habitación llena de sillas sin intervención humana en unas cinco horas, convirtiéndose en uno de los primeros ejemplos de vehículo autónomo.

1980 Se construye Wabot-2 en la Universidad de Waseda (Japón), un robot humanoide músico capaz de comunicarse con una persona, leer una partitura musical y tocar melodías de dificultad media en un órgano electrónico.

1981 El Ministerio de Comercio Internacional e Industria japonés presupuesta 850 millones de dólares para el proyecto Fifth Generation Computer. El proyecto pretendía desarrollar ordenadores que pudieran mantener conversaciones, traducir idiomas, interpretar imágenes y razonar como los seres humanos.

1984 Se estrena Electric Dreams, una película sobre un triángulo amoroso entre un hombre, una mujer y un ordenador personal.

1984 En la reunión anual de la AAAI, Roger Schank y Marvin Minsky advierten de la llegada del «invierno de la IA», prediciendo un inminente estallido de la burbuja de la IA (que efectivamente se produjo tres años después), similar a la reducción de la inversión en IA y la financiación de la investigación a mediados de la década de 1970.

1986 El primer coche sin conductor, una furgoneta Mercedes-Benz equipada con cámaras y sensores, construida en la Universidad Bundeswehr de Múnich bajo la dirección de Ernst Dickmanns, conduce hasta 55 mph en calles vacías.

Octubre de 1986 David Rumelhart, Geoffrey Hinton y Ronald Williams publican «Learning representations by back-propagating errors», en el que describen «un nuevo procedimiento de aprendizaje, la retropropagación, para redes de unidades neuronales.»

1987 El vídeo Knowledge Navigator, que acompaña al discurso de apertura del director general de Apple, John Sculley, en Educom, imagina un futuro en el que «las aplicaciones de conocimiento serían accedidas por agentes inteligentes que trabajan en redes conectadas a cantidades masivas de información digitalizada».»

1988 Judea Pearl publica Probabilistic Reasoning in Intelligent Systems. Su citación para el Premio Turing 2011 dice: «Judea Pearl creó la base representacional y computacional para el procesamiento de la información bajo incertidumbre. Se le atribuye la invención de las redes bayesianas, un formalismo matemático para definir modelos de probabilidad complejos, así como los principales algoritmos utilizados para la inferencia en estos modelos. Este trabajo no sólo revolucionó el campo de la inteligencia artificial, sino que también se convirtió en una importante herramienta para muchas otras ramas de la ingeniería y las ciencias naturales».

1988 Rollo Carpenter desarrolla el chat-bot Jabberwacky para «simular el chat humano natural de una manera interesante, entretenida y humorística». Se trata de un primer intento de crear inteligencia artificial a través de la interacción humana.

1988 Los miembros del Centro de Investigación T.J. Watson de IBM publican «A statistical approach to language translation» (Un enfoque estadístico de la traducción de idiomas), que anuncia el paso de los métodos de traducción automática basados en reglas a los probabilísticos, y refleja un cambio más amplio hacia el «aprendizaje automático» basado en el análisis estadístico de ejemplos conocidos, y no en la comprensión y el «entendimiento» de la tarea en cuestión (el proyecto Candide de IBM, que tradujo con éxito entre el inglés y el francés, se basó en 2.2 millones de pares de frases, en su mayoría procedentes de las actas bilingües del parlamento canadiense).

1988 Marvin Minsky y Seymour Papert publican una edición ampliada de su libro de 1969 Perceptrons. En el «Prólogo: A View from 1988» escriben: «Una de las razones por las que el progreso ha sido tan lento en este campo es que los investigadores que no están familiarizados con su historia han seguido cometiendo muchos de los mismos errores que otros cometieron antes que ellos».

1989 Yann LeCun y otros investigadores de AT&T Bell Labs aplican con éxito un algoritmo de retropropagación a una red neuronal multicapa, reconociendo códigos postales escritos a mano. Dadas las limitaciones de hardware de la época, el entrenamiento de la red tardó unos 3 días (lo que supone una mejora significativa con respecto a los esfuerzos anteriores).

1990 Rodney Brooks publica «Elephants Don’t Play Chess» (Los elefantes no juegan al ajedrez), en el que propone un nuevo enfoque de la IA: la construcción de sistemas inteligentes, concretamente de robots, desde cero y sobre la base de la interacción física continua con el entorno: «El mundo es su mejor modelo… El truco es percibirlo adecuadamente y con la suficiente frecuencia».

1993 Vernor Vinge publica «The Coming Technological Singularity», en el que predice que «dentro de treinta años, tendremos los medios tecnológicos para crear inteligencia sobrehumana. Poco después, la era humana habrá terminado».

1995 Richard Wallace desarrolla el chatbot A.L.I.C.E (Artificial Linguistic Internet Computer Entity), inspirado en el programa ELIZA de Joseph Weizenbaum, pero con el añadido de la recogida de datos de muestras de lenguaje natural a una escala sin precedentes, posibilitada por la llegada de la Web.

1997 Sepp Hochreiter y Jürgen Schmidhuber proponen la memoria a largo plazo (LSTM), un tipo de red neuronal recurrente que se utiliza hoy en día en el reconocimiento de la escritura a mano y del habla.

1997 Deep Blue se convierte en el primer programa informático de ajedrez que vence a un campeón mundial vigente.

1998 Dave Hampton y Caleb Chung crean Furby, el primer robot doméstico o mascota.

1998 Yann LeCun, Yoshua Bengio y otros publican artículos sobre la aplicación de redes neuronales al reconocimiento de la escritura a mano y sobre la optimización de la retropropagación.

2000 Cynthia Breazeal, del MIT, desarrolla Kismet, un robot que podría reconocer y simular emociones.

2000 El robot ASIMO de Honda, un robot humanoide con inteligencia artificial, es capaz de caminar tan rápido como un humano, entregando bandejas a los clientes en un restaurante.

2001 Se estrena A.I. Artificial Intelligence, una película de Steven Spielberg sobre David, un androide infantil programado de forma única con la capacidad de amar.

2004 Se celebra en el desierto de Mojave el primer DARPA Grand Challenge, una competición de premios para vehículos autónomos. Ninguno de los vehículos autónomos terminó la ruta de 150 millas.

2006 Oren Etzioni, Michele Banko y Michael Cafarella acuñan el término «lectura automática», definiéndola como una «comprensión autónoma del texto» inherentemente no supervisada.»

2006 Geoffrey Hinton publica «Learning Multiple Layers of Representation» (Aprendizaje de múltiples capas de representación), en el que resume las ideas que han llevado a las «redes neuronales multicapa que contienen conexiones descendentes y las entrena para generar datos sensoriales en lugar de clasificarlos», es decir, los nuevos enfoques del aprendizaje profundo.

2007 Fei Fei Li y sus colegas de la Universidad de Princeton comienzan a reunir ImageNet, una gran base de datos de imágenes anotadas diseñada para ayudar en la investigación del software de reconocimiento visual de objetos.

2009 Rajat Raina, Anand Madhavan y Andrew Ng publican «Large-scale Deep Unsupervised Learning using Graphics Processors» (Aprendizaje profundo no supervisado a gran escala utilizando procesadores gráficos), argumentando que «los procesadores gráficos modernos superan con creces las capacidades computacionales de las CPU multinúcleo y tienen el potencial de revolucionar la aplicabilidad de los métodos de aprendizaje profundo no supervisado»

2009 Google comienza a desarrollar, en secreto, un coche sin conductor. En 2014, se convierte en el primero en pasar, en Nevada, una prueba de autoconducción del estado de Estados Unidos.

2009 Informáticos del Laboratorio de Información Inteligente de la Universidad de Northwestern desarrollan Stats Monkey, un programa que redacta noticias deportivas sin intervención humana.

2010 Lanzamiento del ImageNet Large Scale Visual Recognition Challenge (ILSVCR), una competición anual de reconocimiento de objetos con IA.

2011 Una red neuronal convolucional gana el concurso alemán de reconocimiento de señales de tráfico con una precisión del 99,46% (frente al 99,22% de los humanos).

2011 Watson, un ordenador de respuesta a preguntas en lenguaje natural, compite en Jeopardy! y derrota a dos antiguos campeones.

2011 Investigadores del IDSIA en Suiza informan de una tasa de error del 0,27% en el reconocimiento de la escritura a mano utilizando redes neuronales convolucionales, una mejora significativa respecto al 0.35%-0,40% de tasa de error en años anteriores.

Junio de 2012 Jeff Dean y Andrew Ng informan sobre un experimento en el que mostraron a una red neuronal muy grande 10 millones de imágenes sin etiquetar tomadas aleatoriamente de vídeos de YouTube, y «para nuestra diversión, una de nuestras neuronas artificiales aprendió a responder fuertemente a las imágenes de… gatos.»

Octubre de 2012 Una red neuronal convolucional diseñada por investigadores de la Universidad de Toronto logra una tasa de error de solo el 16% en el Desafío de Reconocimiento Visual a Gran Escala de ImageNet, una mejora significativa sobre la tasa de error del 25% lograda por la mejor entrada del año anterior.

Marzo de 2016 AlphaGo de Google DeepMind derrota al campeón de Go Lee Sedol.

La web (especialmente Wikipedia) es una gran fuente para la historia de la inteligencia artificial. Otras fuentes clave son Nils Nilsson, The Quest for Artificial Intelligence: A History of Ideas and Achievements; Stuart Russell y Peter Norvig, Artificial Intelligence: A Modern Approach; Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World; y Artificial Intelligence and Life in 2030. Se ruega que se comenten las omisiones e inexactitudes involuntarias.

Véase también Una brevísima historia de la ciencia de los datos, Una brevísima historia del Big Data y Una brevísima historia de las tecnologías de la información (TI).

Deja una respuesta

Tu dirección de correo electrónico no será publicada.