A Very Short History Of Artificial Intelligence (AI)

, Author

1308 Il poeta e teologo catalano Ramon Llull pubblica Ars generalis ultima (The Ultimate General Art), perfezionando ulteriormente il suo metodo di usare mezzi meccanici su carta per creare nuova conoscenza da combinazioni di concetti.

1666 Il matematico e filosofo Gottfried Leibniz pubblica la Dissertatio de arte combinatoria, seguendo Ramon Llull nel proporre un alfabeto del pensiero umano e sostenendo che tutte le idee non sono altro che combinazioni di un numero relativamente piccolo di concetti semplici.

1726 Jonathan Swift pubblica i Viaggi di Gulliver, che includono una descrizione del Motore, una macchina sull’isola di Laputa (e una parodia delle idee di Lullo): “un progetto per migliorare la conoscenza speculativa con operazioni pratiche e meccaniche”. Usando questo “marchingegno”, “la persona più ignorante può scrivere libri di filosofia, poesia, politica, legge, matematica e teologia a un costo ragionevole e con un po’ di lavoro corporale, con il minimo aiuto del genio o dello studio”

1763 Thomas Bayes sviluppa una struttura per ragionare sulla probabilità degli eventi. L’inferenza bayesiana diventerà l’approccio principale nell’apprendimento automatico.

1854 George Boole sostiene che il ragionamento logico potrebbe essere eseguito sistematicamente nello stesso modo in cui si risolve un sistema di equazioni.

1898 In una mostra elettrica nel Madison Square Garden, recentemente completato, Nikola Tesla fa una dimostrazione della prima barca radiocomandata del mondo. L’imbarcazione era dotata, come descritto da Tesla, di “una mente presa in prestito”.

1914 L’ingegnere spagnolo Leonardo Torres y Quevedo dimostra la prima macchina per giocare a scacchi, capace di giocare endgame re e torre contro re senza alcun intervento umano.

1921 Lo scrittore ceco Karel Čapek introduce la parola “robot” nella sua opera R.U.R. (Rossum’s Universal Robots). La parola “robot” deriva dalla parola “robota” (lavoro).

1925 Houdina Radio Control rilascia una macchina radiocomandata senza conducente, che viaggia per le strade di New York City.

1927 Esce il film di fantascienza Metropolis. Presenta il doppio robot di una contadina, Maria, che scatena il caos nella Berlino del 2026 – fu il primo robot raffigurato su pellicola, ispirando il look Art Deco di C-3PO in Star Wars.

1929 Makoto Nishimura progetta Gakutensoku, in giapponese “imparare dalle leggi della natura”, il primo robot costruito in Giappone. Poteva cambiare la sua espressione facciale e muovere la testa e le mani attraverso un meccanismo di pressione dell’aria.

1943 Warren S. McCulloch e Walter Pitts pubblicano “A Logical Calculus of the Ideas Immanent in Nervous Activity” nel Bulletin of Mathematical Biophysics. Questo influente articolo, in cui discutono di reti di “neuroni” artificiali idealizzati e semplificati e di come potrebbero eseguire semplici funzioni logiche, diventerà l’ispirazione per le “reti neurali” basate su computer (e più tardi per il “deep learning”) e per la loro descrizione popolare di “imitazione del cervello”

1949 Edmund Berkeley pubblica Giant Brains: Or Machines That Think in cui scrive: “Recentemente ci sono state molte notizie su strane macchine giganti che possono gestire le informazioni con grande velocità e abilità….Queste macchine sono simili a quello che sarebbe un cervello se fosse fatto di hardware e fili invece che di carne e nervi… Una macchina può gestire informazioni; può calcolare, concludere e scegliere; può eseguire operazioni ragionevoli con le informazioni. Una macchina, quindi, può pensare.”

1949 Donald Hebb pubblica Organization of Behavior: A Neuropsychological Theory in cui propone una teoria sull’apprendimento basata su congetture riguardanti le reti neurali e la capacità delle sinapsi di rafforzarsi o indebolirsi nel tempo.

1950 “Programming a Computer for Playing Chess” di Claude Shannon è il primo articolo pubblicato sullo sviluppo di un programma per computer per giocare a scacchi.

1950 Alan Turing pubblica “Computing Machinery and Intelligence” in cui propone “il gioco di imitazione” che diventerà poi noto come “Test di Turing.”

1951 Marvin Minsky e Dean Edmunds costruiscono SNARC (Stochastic Neural Analog Reinforcement Calculator), la prima rete neurale artificiale, usando 3000 tubi a vuoto per simulare una rete di 40 neuroni.

1952 Arthur Samuel sviluppa il primo programma per giocare a dama e il primo programma per computer che impara da solo.

31 agosto 1955 Il termine “intelligenza artificiale” viene coniato in una proposta per uno “studio di 2 mesi e 10 uomini sull’intelligenza artificiale” presentata da John McCarthy (Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM) e Claude Shannon (Bell Telephone Laboratories). Il workshop, che ebbe luogo un anno dopo, nel luglio e agosto 1956, è generalmente considerato come la data di nascita ufficiale del nuovo campo.

Dicembre 1955 Herbert Simon e Allen Newell sviluppano il Logic Theorist, il primo programma di intelligenza artificiale, che alla fine dimostrerà 38 dei primi 52 teoremi dei Principia Mathematica di Whitehead e Russell.

1957 Frank Rosenblatt sviluppa il Perceptron, una prima rete neurale artificiale che permette il riconoscimento di modelli basata su una rete di apprendimento a due strati. Il New York Times riporta che il Perceptron è “l’embrione di un computer elettronico che si aspetta sarà in grado di camminare, parlare, vedere, scrivere, riprodursi ed essere cosciente della sua esistenza”. Il New Yorker la definì una “macchina notevole… capace di ciò che equivale al pensiero”.

1958 John McCarthy sviluppa il linguaggio di programmazione Lisp che diventa il più popolare linguaggio di programmazione usato nella ricerca sull’intelligenza artificiale.

1959 Arthur Samuel coniò il termine “apprendimento automatico”, riferendo di programmare un computer “in modo che impari a giocare una partita a dama migliore di quella che può essere giocata dalla persona che ha scritto il programma”

1959 Oliver Selfridge pubblica “Pandemonium: A paradigm for learning” nei Proceedings of the Symposium on Mechanization of Thought Processes, in cui descrive un modello per un processo attraverso il quale i computer potrebbero riconoscere modelli che non sono stati specificati in anticipo.

1959 John McCarthy pubblica “Programs with Common Sense” nei Proceedings of the Symposium on Mechanization of Thought Processes, in cui descrive l’Advice Taker, un programma per risolvere problemi manipolando frasi in linguaggi formali con l’obiettivo finale di creare programmi “che imparano dalla loro esperienza in modo efficace come fanno gli umani.”

1961 Il primo robot industriale, Unimate, inizia a lavorare in una catena di montaggio in uno stabilimento della General Motors nel New Jersey.

1961 James Slagle sviluppa SAINT (Symbolic Automatic INTegrator), un programma euristico che risolve problemi di integrazione simbolica nel calcolo matricolare.

1964 Daniel Bobrow completa la sua tesi di dottorato al MIT intitolata “Natural Language Input for a Computer Problem Solving System” e sviluppa STUDENT, un programma informatico di comprensione del linguaggio naturale.

1965 Herbert Simon predice che “le macchine saranno in grado, entro venti anni, di fare qualsiasi lavoro che un uomo possa fare”.

1965 Hubert Dreyfus pubblica “Alchemy and AI”, sostenendo che la mente non è come un computer e che ci sono limiti oltre i quali l’AI non progredirà.

1965 I.J. Good scrive in “Speculations Concerning the First Ultraintelligent Machine” che “la prima macchina ultraintelligente è l’ultima invenzione che l’uomo abbia mai bisogno di fare, purché la macchina sia abbastanza docile da dirci come tenerla sotto controllo”

1965 Joseph Weizenbaum sviluppa ELIZA, un programma interattivo che porta avanti un dialogo in lingua inglese su qualsiasi argomento. Weizenbaum, che voleva dimostrare la superficialità della comunicazione tra l’uomo e la macchina, fu sorpreso dal numero di persone che attribuirono sentimenti simili a quelli umani al programma del computer.

1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg e Carl Djerassi iniziano a lavorare su DENDRAL all’Università di Stanford. Il primo sistema esperto, automatizzava il processo decisionale e il comportamento di risoluzione dei problemi dei chimici organici, con lo scopo generale di studiare la formazione delle ipotesi e costruire modelli di induzione empirica nella scienza.

1966 Il robot Shakey è il primo robot mobile di uso generale in grado di ragionare sulle proprie azioni. In un articolo della rivista Life del 1970 su questa “prima persona elettronica”, Marvin Minsky viene citato dicendo con “certezza”: “

1968 Esce il film 2001: Odissea nello spazio, con Hal, un computer senziente.

1968 Terry Winograd sviluppa SHRDLU, un primo programma per la comprensione del linguaggio naturale.

1969 Arthur Bryson e Yu-Chi Ho descrivono la backpropagation come un metodo di ottimizzazione del sistema dinamico a più stadi. Un algoritmo di apprendimento per reti neurali artificiali multistrato, ha contribuito significativamente al successo dell’apprendimento profondo negli anni 2000 e 2010, una volta che la potenza di calcolo è sufficientemente avanzata per ospitare l’addestramento di grandi reti.

1969 Marvin Minsky e Seymour Papert pubblicano Perceptrons: An Introduction to Computational Geometry, evidenziando i limiti delle semplici reti neurali. In un’edizione ampliata pubblicata nel 1988, hanno risposto alle affermazioni che le loro conclusioni del 1969 hanno ridotto significativamente i finanziamenti per la ricerca sulle reti neurali: “La nostra versione è che il progresso era già arrivato a un arresto virtuale a causa della mancanza di adeguate teorie di base … dalla metà degli anni ’60 c’erano stati molti esperimenti con i percettori, ma nessuno era stato in grado di spiegare perché erano in grado di riconoscere certi tipi di modelli e non altri.”

1970 Il primo robot antropomorfo, il WABOT-1, viene costruito alla Waseda University in Giappone. Era composto da un sistema di controllo degli arti, un sistema di visione e un sistema di conversazione.

1972 MYCIN, un primo sistema esperto per identificare i batteri che causano gravi infezioni e raccomandare gli antibiotici, viene sviluppato all’Università di Stanford.

1973 James Lighthill riferisce al British Science Research Council sullo stato della ricerca sull’intelligenza artificiale, concludendo che “in nessuna parte del campo le scoperte fatte finora hanno prodotto il grande impatto che era stato promesso”, portando a una drastica riduzione del sostegno governativo alla ricerca sull’IA.

1976 L’informatico Raj Reddy pubblica “Speech Recognition by Machine: A Review” nei Proceedings of the IEEE, riassumendo i primi lavori sul Natural Language Processing (NLP).

1978 Alla Carnegie Mellon University viene sviluppato il programma XCON (eXpert CONfigurer), un sistema esperto basato su regole che assiste nell’ordinazione dei computer VAX della DEC selezionando automaticamente i componenti in base alle esigenze del cliente.

1979 Lo Stanford Cart attraversa con successo una stanza piena di sedie senza intervento umano in circa cinque ore, diventando uno dei primi esempi di veicolo autonomo.

1980 Wabot-2 viene costruito alla Waseda University in Giappone, un robot umanoide musicista in grado di comunicare con una persona, leggere una partitura musicale e suonare brani di media difficoltà su un organo elettronico.

1981 Il Ministero giapponese del Commercio Internazionale e dell’Industria stanzia 850 milioni di dollari per il progetto Fifth Generation Computer. Il progetto mirava a sviluppare computer in grado di portare avanti conversazioni, tradurre lingue, interpretare immagini e ragionare come gli esseri umani.

1984 Esce Electric Dreams, un film su un triangolo amoroso tra un uomo, una donna e un personal computer.

1984 Al meeting annuale dell’AAAI, Roger Schank e Marvin Minsky mettono in guardia dall’imminente “inverno dell’IA”, prevedendo un immanente scoppio della bolla dell’IA (cosa che avvenne tre anni dopo), simile alla riduzione degli investimenti nell’IA e dei finanziamenti alla ricerca a metà degli anni ’70.

1986 La prima auto senza conducente, un furgone Mercedes-Benz dotato di telecamere e sensori, costruito alla Bundeswehr University di Monaco sotto la direzione di Ernst Dickmanns, guida fino a 55 mph su strade vuote.

ottobre 1986 David Rumelhart, Geoffrey Hinton e Ronald Williams pubblicano “Learning representations by back-propagating errors”, in cui descrivono “una nuova procedura di apprendimento, la back-propagation, per reti di unità simili a neuroni.”

1987 Il video Knowledge Navigator, che accompagna il discorso del CEO di Apple John Sculley a Educom, immagina un futuro in cui “le applicazioni della conoscenza sarebbero accessibili da agenti intelligenti che lavorano su reti collegate a enormi quantità di informazioni digitalizzate.”

1988 Judea Pearl pubblica Probabilistic Reasoning in Intelligent Systems. La sua citazione al premio Turing 2011 recita: “Judea Pearl ha creato la base rappresentazionale e computazionale per l’elaborazione dell’informazione sotto incertezza. Gli si attribuisce l’invenzione delle reti bayesiane, un formalismo matematico per definire modelli di probabilità complessi, così come i principali algoritmi utilizzati per l’inferenza in questi modelli. Questo lavoro non solo ha rivoluzionato il campo dell’intelligenza artificiale, ma è diventato uno strumento importante per molte altre branche dell’ingegneria e delle scienze naturali.”

1988 Rollo Carpenter sviluppa il chat-bot Jabberwacky per “simulare la naturale chat umana in un modo interessante, divertente e umoristico”. È un primo tentativo di creare intelligenza artificiale attraverso l’interazione umana.

1988 I membri dell’IBM T.J. Watson Research Center pubblicano “A statistical approach to language translation”, annunciando il passaggio da metodi di traduzione automatica basati su regole a metodi probabilistici, e riflettendo un più ampio passaggio all'”apprendimento automatico” basato sull’analisi statistica di esempi noti, non sulla comprensione e la “comprensione” del compito da svolgere (il progetto Candide di IBM, che traduceva con successo tra inglese e francese, era basato su 2.2 milioni di coppie di frasi, per lo più dagli atti bilingue del parlamento canadese).

1988 Marvin Minsky e Seymour Papert pubblicano un’edizione ampliata del loro libro Perceptrons del 1969. Nel “Prologo: A View from 1988” scrivono: “Una ragione per cui il progresso è stato così lento in questo campo è che i ricercatori che non hanno familiarità con la sua storia hanno continuato a fare molti degli stessi errori che altri hanno fatto prima di loro.”

1989 Yann LeCun e altri ricercatori degli AT&T Bell Labs applicano con successo un algoritmo di backpropagation a una rete neurale multistrato, riconoscendo codici postali scritti a mano. Date le limitazioni hardware dell’epoca, ci vollero circa 3 giorni (un miglioramento significativo rispetto agli sforzi precedenti) per addestrare la rete.

1990 Rodney Brooks pubblica “Elephants Don’t Play Chess”, proponendo un nuovo approccio all’IA: costruire sistemi intelligenti, in particolare robot, da zero e sulla base di una continua interazione fisica con l’ambiente: “

1993 Vernor Vinge pubblica “The Coming Technological Singularity”, in cui prevede che “entro trenta anni, avremo i mezzi tecnologici per creare un’intelligenza sovrumana. Poco dopo, l’era umana sarà finita”

1995 Richard Wallace sviluppa il chatbot A.L.I.C.E (Artificial Linguistic Internet Computer Entity), ispirato al programma ELIZA di Joseph Weizenbaum, ma con l’aggiunta della raccolta di dati campione in linguaggio naturale su una scala senza precedenti, resa possibile dall’avvento del Web.

1997 Sepp Hochreiter e Jürgen Schmidhuber propongono la Long Short-Term Memory (LSTM), un tipo di rete neurale ricorrente usata oggi nel riconoscimento della scrittura e del parlato.

1997 Deep Blue diventa il primo programma di scacchi al computer a battere un campione mondiale di scacchi in carica.

1998 Dave Hampton e Caleb Chung creano Furby, il primo robot domestico o domestico.

1998 Yann LeCun, Yoshua Bengio e altri pubblicano articoli sull’applicazione delle reti neurali al riconoscimento della scrittura e sull’ottimizzazione della backpropagation.

2000 Cynthia Breazeal del MIT sviluppa Kismet, un robot in grado di riconoscere e simulare le emozioni.

2000 Il robot ASIMO della Honda, un robot umanoide artificialmente intelligente, è in grado di camminare veloce come un uomo, consegnando vassoi ai clienti in un ristorante.

2001 Esce A.I. Artificial Intelligence, un film di Steven Spielberg su David, un androide infantile programmato in modo unico con la capacità di amare.

2004 La prima DARPA Grand Challenge, una competizione a premi per veicoli autonomi, si tiene nel deserto del Mojave. Nessuno dei veicoli autonomi ha finito il percorso di 150 miglia.

2006 Oren Etzioni, Michele Banko e Michael Cafarella coniano il termine “lettura automatica”, definendola come una “comprensione autonoma del testo” intrinsecamente senza supervisione.”

2006 Geoffrey Hinton pubblica “Learning Multiple Layers of Representation”, riassumendo le idee che hanno portato a “reti neurali multistrato che contengono connessioni top-down e addestrandole a generare dati sensoriali piuttosto che a classificarli”, cioè i nuovi approcci all’apprendimento profondo.

2007 Fei Fei Li e colleghi dell’Università di Princeton iniziano ad assemblare ImageNet, un grande database di immagini annotate progettato per aiutare la ricerca software di riconoscimento visivo degli oggetti.

2009 Rajat Raina, Anand Madhavan e Andrew Ng pubblicano “Large-scale Deep Unsupervised Learning using Graphics Processors”, sostenendo che “i moderni processori grafici superano di gran lunga le capacità computazionali delle CPU multicore e hanno il potenziale per rivoluzionare l’applicabilità dei metodi di apprendimento profondo non supervisionato.”

2009 Google inizia a sviluppare, in segreto, una macchina senza conducente. Nel 2014, è diventata la prima a superare, in Nevada, un test di guida autonoma dello stato degli Stati Uniti.

2009 Gli scienziati informatici dell’Intelligent Information Laboratory della Northwestern University sviluppano Stats Monkey, un programma che scrive notizie sportive senza intervento umano.

2010 Lancio dell’ImageNet Large Scale Visual Recognition Challenge (ILSVCR), una competizione annuale di riconoscimento di oggetti AI.

2011 Una rete neurale convoluzionale vince la competizione tedesca per il riconoscimento della segnaletica stradale con un’accuratezza del 99,46% (contro gli umani al 99,22%).

2011 Watson, un computer che risponde a domande in linguaggio naturale, compete a Jeopardy! e sconfigge due ex campioni.

2011 I ricercatori dell’IDSIA in Svizzera riportano un tasso di errore dello 0,27% nel riconoscimento della scrittura a mano usando reti neurali convoluzionali, un miglioramento significativo rispetto allo 0.35%-0,40% di errore negli anni precedenti.

Giugno 2012 Jeff Dean e Andrew Ng riferiscono di un esperimento in cui hanno mostrato a una rete neurale molto grande 10 milioni di immagini senza etichetta prese a caso dai video di YouTube, e “per il nostro divertimento, uno dei nostri neuroni artificiali ha imparato a rispondere fortemente alle immagini di… gatti.”

Ottobre 2012 Una rete neurale convoluzionale progettata dai ricercatori dell’Università di Toronto raggiunge un tasso di errore di solo il 16% nell’ImageNet Large Scale Visual Recognition Challenge, un miglioramento significativo rispetto al tasso di errore del 25% raggiunto dalla migliore voce l’anno precedente.

Marzo 2016 AlphaGo di Google DeepMind sconfigge il campione di Go Lee Sedol.

Il Web (specialmente Wikipedia) è una grande fonte per la storia dell’intelligenza artificiale. Altre fonti chiave includono Nils Nilsson, The Quest for Artificial Intelligence: A History of Ideas and Achievements; Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach; Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World; e Artificial Intelligence and Life in 2030. Si prega di commentare le omissioni e le imprecisioni involontarie.

Vedi anche A Very Short History of Data Science, A Very Short History of Big Data, e A Very Short History of Information Technology (IT).

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.