A Very Short History Of Artificial Intelligence (AI)

, Author

1308 Poetul și teologul catalan Ramon Llull publică Ars generalis ultima (Arta generală ultimă), perfecționându-și în continuare metoda de utilizare a mijloacelor mecanice pe suport de hârtie pentru a crea noi cunoștințe din combinații de concepte.

1666 Matematicianul și filosoful Gottfried Leibniz publică Dissertatio de arte combinatoria (Despre arta combinatorie), urmându-l pe Ramon Llull în propunerea unui alfabet al gândirii umane și susținând că toate ideile nu sunt altceva decât combinații ale unui număr relativ mic de concepte simple.

1726 Jonathan Swift publică Gulliver’s Travels (Călătoriile lui Gulliver), care include o descriere a Motorului, o mașină de pe insula Laputa (și o parodie a ideilor lui Llull): „un proiect pentru îmbunătățirea cunoașterii speculative prin operațiuni practice și mecanice”. Prin utilizarea acestui „artificiu”, „cea mai ignorantă persoană, la o taxă rezonabilă și cu puțină muncă trupească, poate scrie cărți de filosofie, poezie, politică, drept, matematică și teologie, cu cel mai mic ajutor din partea geniului sau a studiului.”

1763 Thomas Bayes dezvoltă un cadru de raționament despre probabilitatea evenimentelor. Inferența bayesiană va deveni o abordare de frunte în învățarea automată.

1854 George Boole susține că raționamentul logic ar putea fi realizat în mod sistematic în același mod în care se rezolvă un sistem de ecuații.

1898 La o expoziție de electricitate în Madison Square Garden, recent finalizată, Nikola Tesla face o demonstrație cu prima navă radiocomandată din lume. Ambarcațiunea era echipată, după cum a descris Tesla, cu „o minte împrumutată.”

1914 Inginerul spaniol Leonardo Torres y Quevedo face o demonstrație a primei mașini de jucat șah, capabilă să joace rege și turn contra rege în finale fără nicio intervenție umană.

1921 Scriitorul ceh Karel Čapek introduce cuvântul „robot” în piesa sa R.U.R. (Rossum’s Universal Robots). Cuvântul „robot” provine de la cuvântul „robota” (muncă).

1925 Houdina Radio Control lansează o mașină fără șofer controlată prin radio, care circulă pe străzile orașului New York.

1927 Este lansat filmul științifico-fantastic Metropolis. Acesta prezintă o sosie robotizată a unei țărance, Maria, care dezlănțuie haosul în Berlinul anului 2026 – a fost primul robot înfățișat pe peliculă, inspirând aspectul Art Deco al lui C-3PO din Războiul Stelelor.

1929 Makoto Nishimura proiectează Gakutensoku, termen japonez pentru „a învăța din legile naturii”, primul robot construit în Japonia. Acesta își putea schimba expresia facială și își putea mișca capul și mâinile prin intermediul unui mecanism de presiune a aerului.

1943 Warren S. McCulloch și Walter Pitts publică „A Logical Calculus of the Ideas Immanent in Nervous Activity” în Bulletin of Mathematical Biophysics. Această lucrare influentă, în care au discutat despre rețele de „neuroni” artificiali idealizați și simplificați și despre modul în care aceștia ar putea îndeplini funcții logice simple, va deveni sursa de inspirație pentru „rețelele neuronale” bazate pe calculator (și mai târziu pentru „învățarea profundă”) și descrierea lor populară ca „imitând creierul”.”

1949 Edmund Berkeley publică Giant Brains: Or Machines That Think (Mașini care gândesc), în care scrie: „Recent au apărut o mulțime de știri despre ciudate mașini gigantice care pot manipula informații cu o viteză și o îndemânare uriașe….Aceste mașini sunt similare cu ceea ce ar fi un creier dacă ar fi făcut din hardware și cabluri în loc de carne și nervi… O mașină poate manipula informații; poate calcula, concluziona și alege; poate efectua operații rezonabile cu informații. O mașină, prin urmare, poate gândi.”

1949 Donald Hebb publică Organization of Behavior: A Neuropsychological Theory (O teorie neuropsihologică) în care propune o teorie despre învățare bazată pe conjecturi referitoare la rețelele neuronale și la capacitatea sinapselor de a se întări sau slăbi în timp.

1950 „Programming a Computer for Playing Chess” (Programarea unui calculator pentru a juca șah) al lui Claude Shannon este primul articol publicat despre dezvoltarea unui program de calculator pentru a juca șah.

1950 Alan Turing publică „Computing Machinery and Intelligence” (Mașini de calcul și inteligență) în care propune „jocul de imitație” care va fi cunoscut mai târziu sub numele de „Testul Turing”.”

1951 Marvin Minsky și Dean Edmunds construiesc SNARC (Stochastic Neural Analog Reinforcement Calculator), prima rețea neuronală artificială, folosind 3.000 de tuburi cu vid pentru a simula o rețea de 40 de neuroni.

1952 Arthur Samuel dezvoltă primul program de joc de dame pe calculator și primul program de calculator care învață de unul singur.

August 31, 1955 Termenul „inteligență artificială” este inventat într-o propunere pentru un „studiu de 2 luni, cu 10 oameni, asupra inteligenței artificiale” înaintată de John McCarthy (Dartmouth College), Marvin Minsky (Universitatea Harvard), Nathaniel Rochester (IBM) și Claude Shannon (Bell Telephone Laboratories). Atelierul, care a avut loc un an mai târziu, în iulie și august 1956, este în general considerat ca fiind data oficială de naștere a noului domeniu.

Decembrie 1955 Herbert Simon și Allen Newell dezvoltă Logic Theorist, primul program de inteligență artificială, care în cele din urmă avea să demonstreze 38 din primele 52 de teoreme din Principia Mathematica a lui Whitehead și Russell.

1957 Frank Rosenblatt dezvoltă Perceptronul, o rețea neuronală artificială timpurie care permite recunoașterea modelelor pe baza unei rețele de învățare pe calculator cu două straturi. The New York Times a relatat că Perceptron este „embrionul unui calculator electronic care se așteaptă să fie capabil să meargă, să vorbească, să vadă, să scrie, să se reproducă singur și să fie conștient de existența sa”. The New Yorker l-a numit o „mașină remarcabilă… capabilă de ceea ce echivalează cu o gândire.”

1958 John McCarthy dezvoltă limbajul de programare Lisp, care devine cel mai popular limbaj de programare folosit în cercetarea inteligenței artificiale.

1959 Arthur Samuel inventează termenul de „învățare automată”, relatând despre programarea unui calculator „astfel încât acesta să învețe să joace un joc de dame mai bun decât poate fi jucat de persoana care a scris programul.”

1959 Oliver Selfridge publică „Pandemonium: A paradigm for learning” în Proceedings of the Proceedings of the Symposium on Mechanization of Thought Processes, în care descrie un model pentru un proces prin care computerele ar putea recunoaște tipare care nu au fost specificate în prealabil.

1959 John McCarthy publică „Programs with Common Sense” în Proceedings of the Symposium on Mechanization of Thought Processes, în care descrie Advice Taker, un program pentru rezolvarea problemelor prin manipularea propozițiilor în limbaje formale, cu obiectivul final de a realiza programe „care să învețe din experiența lor la fel de eficient ca și oamenii”.”

1961 Primul robot industrial, Unimate, începe să lucreze pe o linie de asamblare într-o uzină General Motors din New Jersey.

1961 James Slagle dezvoltă SAINT (Symbolic Automatic INTegrator), un program euristic care a rezolvat probleme de integrare simbolică în calculul bobocilor.

1964 Daniel Bobrow își finalizează teza de doctorat la MIT intitulată „Natural Language Input for a Computer Problem Solving System” și dezvoltă STUDENT, un program de calculator de înțelegere a limbajului natural.

1965 Herbert Simon prezice că „mașinile vor fi capabile, în douăzeci de ani, să facă orice muncă pe care o poate face un om.”

1965 Hubert Dreyfus publică „Alchemy and AI”, argumentând că mintea nu este ca un calculator și că există limite dincolo de care IA nu va progresa.

1965 I.J. Good scrie în „Speculații cu privire la prima mașină ultrainteligentă” că „prima mașină ultrainteligentă este ultima invenție pe care omul trebuie să o facă vreodată, cu condiția ca mașina să fie suficient de docilă pentru a ne spune cum să o ținem sub control.”

1965 Joseph Weizenbaum dezvoltă ELIZA, un program interactiv care poartă un dialog în limba engleză pe orice subiect. Weizenbaum, care dorea să demonstreze superficialitatea comunicării dintre om și mașină, a fost surprins de numărul de persoane care au atribuit programului de calculator sentimente asemănătoare celor umane.

1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg și Carl Djerassi încep să lucreze la DENDRAL la Universitatea Stanford. Primul sistem expert, acesta a automatizat procesul de luare a deciziilor și comportamentul de rezolvare a problemelor al chimiștilor organici, cu scopul general de a studia formarea ipotezelor și de a construi modele de inducție empirică în știință.

1966 Robotul Shakey este primul robot mobil de uz general care este capabil să raționeze asupra propriilor acțiuni. Într-un articol din 1970 al revistei Life despre această „primă persoană electronică”, Marvin Minsky este citat spunând cu „certitudine”: „În trei până la opt ani vom avea o mașină cu inteligența generală a unei ființe umane medii.”

1968 Se lansează filmul 2001: Odiseea spațială, în care apare Hal, un calculator sensibil.

1968 Terry Winograd dezvoltă SHRDLU, un prim program de calculator de înțelegere a limbajului natural.

1969 Arthur Bryson și Yu-Chi Ho descriu backpropagation ca metodă de optimizare a sistemelor dinamice în mai multe etape. Un algoritm de învățare pentru rețele neuronale artificiale cu mai multe straturi, a contribuit semnificativ la succesul învățării profunde în anii 2000 și 2010, odată ce puterea de calcul a avansat suficient de mult pentru a permite instruirea unor rețele mari.

1969 Marvin Minsky și Seymour Papert publică Perceptrons: An Introduction to Computational Geometry, care evidențiază limitările rețelelor neuronale simple. Într-o ediție extinsă publicată în 1988, ei au răspuns la afirmațiile conform cărora concluziile lor din 1969 au redus semnificativ finanțarea pentru cercetarea în domeniul rețelelor neuronale: „Versiunea noastră este că progresul se oprise deja practic din cauza lipsei unor teorii de bază adecvate… până la jumătatea anilor 1960 au avut loc foarte multe experimente cu perceptroni, dar nimeni nu a fost capabil să explice de ce au fost capabili să recunoască anumite tipuri de modele și nu altele.”

1970 Primul robot antropomorf, WABOT-1, este construit la Universitatea Waseda din Japonia. Acesta era format dintr-un sistem de control al membrelor, un sistem de viziune și un sistem de conversație.

1972 MYCIN, un prim sistem expert pentru identificarea bacteriilor care cauzează infecții grave și recomandarea de antibiotice, este dezvoltat la Universitatea Stanford.

1973 James Lighthill raportează Consiliului Britanic de Cercetare Științifică cu privire la stadiul cercetării în domeniul inteligenței artificiale, concluzionând că „în nici o parte a domeniului descoperirile făcute până în prezent nu au produs impactul major care a fost promis atunci”, ceea ce a dus la reducerea drastică a sprijinului guvernamental pentru cercetarea în domeniul IA.

1976 Informaticianul Raj Reddy publică „Speech Recognition by Machine: A Review” în Proceedings of the IEEE, rezumând primele lucrări privind procesarea limbajului natural (NLP).

1978 La Universitatea Carnegie Mellon este dezvoltat programul XCON (eXpert CONfigurer), un sistem expert bazat pe reguli care ajută la comandarea calculatoarelor VAX de la DEC prin selectarea automată a componentelor în funcție de cerințele clientului.

1979 Căruciorul Stanford Cart traversează cu succes o cameră plină de scaune fără intervenție umană în aproximativ cinci ore, devenind unul dintre primele exemple de vehicul autonom.

1980 La Universitatea Waseda din Japonia se construiește Wabot-2, un robot umanoid muzician capabil să comunice cu o persoană, să citească o partitură muzicală și să cânte melodii de dificultate medie la o orgă electronică.

1981 Ministerul japonez al Comerțului Internațional și al Industriei bugetează 850 de milioane de dolari pentru proiectul „Fifth Generation Computer”. Proiectul urmărea să dezvolte computere care să poată purta conversații, să traducă limbi străine, să interpreteze imagini și să raționeze ca ființele umane.

1984 Este lansat Electric Dreams, un film despre un triunghi amoros între un bărbat, o femeie și un computer personal.

1984 La reuniunea anuală a AAAI, Roger Schank și Marvin Minsky avertizează cu privire la viitoarea „iarnă a inteligenței artificiale”, prezicând o iminentă spargere a bulei inteligenței artificiale (ceea ce s-a și întâmplat trei ani mai târziu), similară cu reducerea investițiilor în inteligența artificială și a finanțării cercetării la mijlocul anilor 1970.

1986 Prima mașină fără șofer, o furgonetă Mercedes-Benz echipată cu camere și senzori, construită la Universitatea Bundeswehr din München sub conducerea lui Ernst Dickmanns, conduce până la 55 mph pe străzile goale.

octombrie 1986 David Rumelhart, Geoffrey Hinton și Ronald Williams publică „Learning representations by back-propagating errors”, în care descriu „o nouă procedură de învățare, back-propagation, pentru rețele de unități asemănătoare neuronilor.”

1987 Videoclipul Knowledge Navigator, care însoțește discursul de deschidere al directorului general al Apple, John Sculley, la Educom, preconizează un viitor în care „aplicațiile de cunoaștere ar fi accesate de agenți inteligenți care lucrează prin rețele conectate la cantități masive de informații digitalizate.”

1988 Judea Pearl publică Probabilistic Reasoning in Intelligent Systems. Citația sa la Premiul Turing 2011 sună astfel:: „Judea Pearl a creat fundamentul reprezentațional și computațional pentru procesarea informațiilor în condiții de incertitudine. El este creditat cu inventarea rețelelor bayesiene, un formalism matematic pentru definirea modelelor complexe de probabilitate, precum și a principalilor algoritmi utilizați pentru inferența în aceste modele. Această lucrare nu numai că a revoluționat domeniul inteligenței artificiale, dar a devenit, de asemenea, un instrument important pentru multe alte ramuri ale ingineriei și ale științelor naturale.”

1988 Rollo Carpenter dezvoltă chat-bot-ul Jabberwacky pentru a „simula chat-ul uman natural într-o manieră interesantă, amuzantă și plină de umor”. Este o încercare timpurie de a crea inteligență artificială prin interacțiunea umană.

1988 Membrii Centrului de Cercetare IBM T.J. Watson publică „A statistical approach to language translation”, anunțând trecerea de la metode de traducere automată bazate pe reguli la metode probabilistice și reflectând o schimbare mai amplă către „învățarea mașinilor” bazată pe analiza statistică a exemplelor cunoscute, nu pe înțelegerea și „înțelegerea” sarcinii în cauză (proiectul Candide al IBM, care a reușit să traducă cu succes între engleză și franceză, s-a bazat pe 2.2 milioane de perechi de propoziții, majoritatea din lucrările bilingve ale parlamentului canadian).

1988 Marvin Minsky și Seymour Papert publică o ediție extinsă a cărții lor din 1969 Perceptrons. În „Prolog: A View from 1988”, ei scriu: „Unul dintre motivele pentru care progresul a fost atât de lent în acest domeniu este că cercetătorii care nu sunt familiarizați cu istoria sa au continuat să facă multe dintre aceleași greșeli pe care alții le-au făcut înaintea lor.”

1989 Yann LeCun și alți cercetători de la AT&T Bell Labs aplică cu succes un algoritm de backpropagation la o rețea neuronală multistrat, recunoscând codurile poștale scrise de mână. Având în vedere limitările hardware de la acea vreme, a durat aproximativ 3 zile (încă o îmbunătățire semnificativă față de eforturile anterioare) pentru a antrena rețeaua.

1990 Rodney Brooks publică „Elephants Don’t Play Chess” (Elefanții nu joacă șah), propunând o nouă abordare a inteligenței artificiale – construirea de sisteme inteligente, în special roboți, de la zero și pe baza unei interacțiuni fizice continue cu mediul înconjurător: „Lumea este cel mai bun model al său… Șmecheria este să o simțim în mod adecvat și suficient de des.”

1993 Vernor Vinge publică „The Coming Technological Singularity” (Singularitatea tehnologică care se apropie), în care prezice că „în treizeci de ani, vom avea mijloacele tehnologice pentru a crea o inteligență supraumană. La scurt timp după aceea, era umană se va încheia.”

1995 Richard Wallace dezvoltă chatbotul A.L.I.C.E (Artificial Linguistic Internet Computer Entity), inspirat de programul ELIZA al lui Joseph Weizenbaum, dar cu adaosul colectării de mostre de date în limbaj natural la o scară fără precedent, permisă de apariția Web-ului.

1997 Sepp Hochreiter și Jürgen Schmidhuber propun memoria lungă pe termen scurt (Long Short-Term Memory – LSTM), un tip de rețea neuronală recurentă utilizată astăzi în recunoașterea scrisului de mână și a vorbirii.

1997 Deep Blue devine primul program computerizat de joc de șah care învinge un campion mondial în exercițiu.

1998 Dave Hampton și Caleb Chung creează Furby, primul robot domestic sau de companie.

1998 Yann LeCun, Yoshua Bengio și alții publică lucrări despre aplicarea rețelelor neuronale la recunoașterea scrisului de mână și despre optimizarea backpropagation.

2000 Cynthia Breazeal de la MIT dezvoltă Kismet, un robot care ar putea recunoaște și simula emoțiile.

2000 Robotul ASIMO de la Honda, un robot umanoid cu inteligență artificială, este capabil să meargă la fel de repede ca un om, livrând tăvi clienților în cadrul unui restaurant.

2001 Este lansat A.I. Artificial Intelligence (Inteligență artificială), un film de Steven Spielberg despre David, un android asemănător unui copil programat în mod unic cu abilitatea de a iubi.

2004 În deșertul Mojave are loc prima ediție a DARPA Grand Challenge, o competiție cu premii pentru vehicule autonome. Niciunul dintre vehiculele autonome nu a terminat traseul de 150 de mile.

2006 Oren Etzioni, Michele Banko și Michael Cafarella au inventat termenul de „citire automată”, definind-o ca fiind o „înțelegere autonomă a textului” nesupravegheată în mod inerent.”

2006 Geoffrey Hinton publică „Learning Multiple Layers of Representation” (Învățarea mai multor straturi de reprezentare), rezumând ideile care au condus la „rețele neuronale multistrat care conțin conexiuni de sus în jos și antrenarea lor pentru a genera date senzoriale mai degrabă decât pentru a le clasifica”, adică, noile abordări ale învățării profunde.

2007 Fei Fei Li și colegii de la Universitatea Princeton încep să asambleze ImageNet, o bază de date mare de imagini adnotate, concepută pentru a ajuta în cercetarea software-ului de recunoaștere vizuală a obiectelor.

2009 Rajat Raina, Anand Madhavan și Andrew Ng publică „Large-scale Deep Unsupervised Learning using Graphics Processors”, argumentând că „procesoarele grafice moderne depășesc cu mult capacitățile de calcul ale CPU-urilor multicore și au potențialul de a revoluționa aplicabilitatea metodelor de învățare profundă nesupravegheată.”

2009 Google începe să dezvolte, în secret, o mașină fără șofer. În 2014, aceasta a devenit prima care a trecut, în Nevada, un test de autoconducere în statul american.

2009 Informaticienii de la Intelligent Information Laboratory din cadrul Universității Northwestern dezvoltă Stats Monkey, un program care scrie știri sportive fără intervenție umană.

2010 Lansarea ImageNet Large Scale Visual Recognition Challenge (ILSVCR), o competiție anuală de recunoaștere a obiectelor prin inteligență artificială.

2011 O rețea neuronală convoluțională câștigă concursul german de recunoaștere a semnelor de circulație cu o acuratețe de 99,46% (față de oameni cu 99,22%).

2011 Watson, un computer care răspunde la întrebări în limbaj natural, concurează la Jeopardy! și învinge doi foști campioni.

2011 Cercetătorii de la IDSIA din Elveția raportează o rată de eroare de 0,27% în recunoașterea scrisului de mână cu ajutorul rețelelor neuronale convoluționale, o îmbunătățire semnificativă față de rata de eroare de 0.35%-0,40% rata de eroare din anii precedenți.

Iunie 2012 Jeff Dean și Andrew Ng raportează un experiment în care au arătat unei rețele neuronale foarte mari 10 milioane de imagini neetichetate luate la întâmplare din videoclipuri de pe YouTube și, „spre amuzamentul nostru, unul dintre neuronii noștri artificiali a învățat să răspundă puternic la imagini cu… pisici.”

Octombrie 2012 O rețea neuronală convoluțională concepută de cercetătorii de la Universitatea din Toronto obține o rată de eroare de numai 16% în cadrul ImageNet Large Scale Visual Recognition Challenge, o îmbunătățire semnificativă față de rata de eroare de 25% obținută de cea mai bună intrare din anul precedent.

Martie 2016 AlphaGo de la Google DeepMind îl învinge pe campionul de Go Lee Sedol.

Web-ul (în special Wikipedia) este o sursă excelentă pentru istoria inteligenței artificiale. Alte surse cheie includ Nils Nilsson, The Quest for Artificial Intelligence: A History of Ideas and Achievements; Stuart Russell și Peter Norvig, Artificial Intelligence: A Modern Approach; Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World; și Artificial Intelligence and Life in 2030. Vă rugăm să comentați cu privire la omisiunile și inexactitățile involuntare.

Vezi și A Very Short History of Data Science, A Very Short History of Big Data și A Very Short History of Information Technology (IT).

.

Lasă un răspuns

Adresa ta de email nu va fi publicată.