A Very Short History Of Artificial Intelligence (AI)

, Author

1308 De Catalaanse dichter en theoloog Ramon Llull publiceert Ars generalis ultima (De Ultieme Algemene Kunst), waarin hij zijn methode verder perfectioneert om met behulp van op papier gebaseerde mechanische middelen nieuwe kennis te creëren uit combinaties van concepten.

1666 Wiskundige en filosoof Gottfried Leibniz publiceert Dissertatio de arte combinatoria (Over de combinatorische kunst), waarin hij in navolging van Ramon Llull een alfabet van het menselijk denken voorstelt en betoogt dat alle ideeën niets anders zijn dan combinaties van een betrekkelijk klein aantal eenvoudige begrippen.

1726 Jonathan Swift publiceert Gulliver’s Travels, met daarin een beschrijving van de Engine, een machine op het eiland Laputa (en een parodie op Llull’s ideeën): “een Project om speculatieve Kennis te verbeteren door praktische en mechanische Operaties.” Met behulp van dit vernuft kan “de meest onwetende persoon tegen een redelijke prijs en met een beetje lichamelijke arbeid boeken schrijven over filosofie, poëzie, politiek, recht, wiskunde en theologie, zonder de minste hulp van genie of studie.”

1763 Thomas Bayes ontwikkelt een raamwerk om te redeneren over de waarschijnlijkheid van gebeurtenissen. Bayesiaanse inferentie zal een toonaangevende benadering worden bij machinaal leren.

1854 George Boole betoogt dat logisch redeneren systematisch kan worden uitgevoerd op dezelfde manier als het oplossen van een stelsel vergelijkingen.

1898 Op een elektrische tentoonstelling in de pas voltooide Madison Square Garden geeft Nikola Tesla een demonstratie van ’s werelds eerste radiografisch bestuurbare vaartuig. De boot was uitgerust met, zoals Tesla het omschreef, “een geleende geest.”

1914 De Spaanse ingenieur Leonardo Torres y Quevedo demonstreert de eerste schaakmachine, die in staat is koning en toren tegen koning eindspelen te spelen zonder menselijke tussenkomst.

1921 De Tsjechische schrijver Karel Čapek introduceert het woord “robot” in zijn toneelstuk R.U.R. (Rossum’s Universele Robots). Het woord “robot” komt van het woord “robota” (werk).

1925 Houdina Radio Control brengt een radiografisch bestuurbare auto zonder bestuurder uit, die door de straten van New York City rijdt.

1927 De science-fictionfilm Metropolis wordt uitgebracht. In de film is een robot te zien die de dubbelgangster is van een boerenmeisje, Maria, dat chaos veroorzaakt in het Berlijn van 2026 – het was de eerste robot die in een film werd afgebeeld en die de inspiratiebron vormde voor de Art Deco look van C-3PO in Star Wars.

1929 Makoto Nishimura ontwerpt Gakutensoku, Japans voor “leren van de wetten van de natuur”, de eerste robot die in Japan wordt gebouwd. Het kon zijn gezichtsuitdrukking veranderen en zijn hoofd en handen bewegen via een luchtdrukmechanisme.

1943 Warren S. McCulloch en Walter Pitts publiceren “A Logical Calculus of the Ideas Immanent in Nervous Activity” in het Bulletin of Mathematical Biophysics. Dit invloedrijke artikel, waarin zij netwerken van geïdealiseerde en vereenvoudigde kunstmatige “neuronen” bespraken en hoe deze eenvoudige logische functies zouden kunnen uitvoeren, zal de inspiratiebron worden voor computer-gebaseerde “neurale netwerken” (en later “deep learning”) en hun populaire beschrijving als “nabootsing van de hersenen.”

1949 Edmund Berkeley publiceert Giant Brains: Or Machines That Think waarin hij schrijft: “Recentelijk is er veel nieuws geweest over vreemde reusachtige machines die informatie kunnen verwerken met enorme snelheid en vaardigheid….Deze machines zijn vergelijkbaar met wat een brein zou zijn als het gemaakt zou zijn van hardware en draad in plaats van vlees en zenuwen… Een machine kan informatie verwerken; het kan berekenen, concluderen en kiezen; het kan redelijke operaties uitvoeren met informatie. Een machine kan daarom denken.”

1949 Donald Hebb publiceert Organization of Behavior: A Neuropsychological Theory waarin hij een theorie over leren voorstelt, gebaseerd op vermoedens over neurale netwerken en het vermogen van synapsen om in de loop van de tijd te versterken of te verzwakken.

1950 Claude Shannon’s “Programming a Computer for Playing Chess” is het eerste gepubliceerde artikel over het ontwikkelen van een schaakspelcomputerprogramma.

1950 Alan Turing publiceert “Computing Machinery and Intelligence” waarin hij “het imitatiespel” voorstelt dat later bekend zal worden als de “Turing Test.”

1951 Marvin Minsky en Dean Edmunds bouwen SNARC (Stochastic Neural Analog Reinforcement Calculator), het eerste kunstmatige neurale netwerk, met behulp van 3000 vacuümbuizen om een netwerk van 40 neuronen te simuleren.

1952 Arthur Samuel ontwikkelt het eerste computer damspelprogramma en het eerste computerprogramma dat zelf leert.

31 augustus 1955 De term “kunstmatige intelligentie” wordt bedacht in een voorstel voor een “2 maanden durende, 10 man durende studie van kunstmatige intelligentie”, ingediend door John McCarthy (Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM), en Claude Shannon (Bell Telephone Laboratories). De workshop, die een jaar later plaatsvond, in juli en augustus 1956, wordt algemeen beschouwd als de officiële geboortedatum van het nieuwe vakgebied.

December 1955 Herbert Simon en Allen Newell ontwikkelen de Logic Theorist, het eerste kunstmatige intelligentieprogramma, dat uiteindelijk 38 van de eerste 52 stellingen in Whitehead en Russell’s Principia Mathematica zou bewijzen.

1957 Frank Rosenblatt ontwikkelt de Perceptron, een vroeg kunstmatig neuraal netwerk dat patroonherkenning mogelijk maakt op basis van een tweelagig computer-leernetwerk. Volgens de New York Times is de Perceptron “het embryo van een elektronische computer waarvan men verwacht dat hij kan lopen, praten, zien, schrijven, zichzelf kan reproduceren en zich bewust zal zijn van zijn bestaan”. De New Yorker noemde het een “opmerkelijke machine… in staat tot wat neerkomt op denken.”

1958 John McCarthy ontwikkelt de programmeertaal Lisp, die de populairste programmeertaal wordt die in het onderzoek naar kunstmatige intelligentie wordt gebruikt.

1959 Arthur Samuel munt de term “machinaal leren” en rapporteert over het programmeren van een computer “zodat deze leert een beter damspel te spelen dan kan worden gespeeld door de persoon die het programma heeft geschreven.”

1959 Oliver Selfridge publiceert “Pandemonium: A paradigm for learning” in de Proceedings of the Symposium on Mechanization of Thought Processes, waarin hij een model beschrijft voor een proces waarmee computers patronen zouden kunnen herkennen die niet van tevoren zijn gespecificeerd.

1959 John McCarthy publiceert “Programs with Common Sense” in de Proceedings of the Symposium on Mechanization of Thought Processes, waarin hij de Advice Taker beschrijft, een programma voor het oplossen van problemen door het manipuleren van zinnen in formele talen met als uiteindelijk doel programma’s te maken “die net zo effectief leren van hun ervaring als mensen dat doen.”

1961 De eerste industriële robot, Unimate, begint te werken aan een assemblagelijn in een fabriek van General Motors in New Jersey.

1961 James Slagle ontwikkelt SAINT (Symbolic Automatic INTegrator), een heuristisch programma dat symbolische integratieproblemen in eerstejaars calculus oploste.

1964 Daniel Bobrow voltooit zijn MIT-promotie getiteld “Natural Language Input for a Computer Problem Solving System” en ontwikkelt STUDENT, een computerprogramma voor het begrijpen van natuurlijke taal.

1965 Herbert Simon voorspelt dat “machines binnen twintig jaar in staat zullen zijn om elk werk te doen dat een mens kan doen.”

1965 Hubert Dreyfus publiceert “Alchemie en AI”, waarin hij betoogt dat de geest niet is als een computer en dat er grenzen zijn waarbuiten AI geen vooruitgang zal boeken.

1965 I.J. Good schrijft in “Speculations Concerning the First Ultraintelligent Machine” dat “de eerste ultra-intelligente machine de laatste uitvinding is die de mens ooit hoeft te doen, mits de machine volgzaam genoeg is om ons te vertellen hoe we hem onder controle kunnen houden.”

1965 Joseph Weizenbaum ontwikkelt ELIZA, een interactief programma dat in de Engelse taal een dialoog voert over een willekeurig onderwerp. Weizenbaum, die de oppervlakkigheid van de communicatie tussen mens en machine wilde aantonen, was verbaasd over het aantal mensen dat het computerprogramma mensachtige gevoelens toedichtte.

1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg, en Carl Djerassi beginnen te werken aan DENDRAL aan de Stanford University. Het eerste expertsysteem automatiseerde het besluitvormingsproces en het probleemoplossend gedrag van organisch scheikundigen, met als algemeen doel het bestuderen van hypothesevorming en het construeren van modellen van empirische inductie in de wetenschap.

1966 Shakey de robot is de eerste mobiele robot voor algemeen gebruik die in staat is te redeneren over zijn eigen acties. In een artikel in het tijdschrift Life uit 1970 over deze “eerste elektronische persoon”, wordt Marvin Minsky geciteerd die met “zekerheid” zegt: “Binnen drie tot acht jaar zullen we een machine hebben met de algemene intelligentie van een gemiddeld mens.”

1968 De film 2001: Space Odyssey wordt uitgebracht, met Hal, een computer met gevoel.

1968 Terry Winograd ontwikkelt SHRDLU, een vroeg computerprogramma voor het begrijpen van natuurlijke taal.

1969 Arthur Bryson en Yu-Chi Ho beschrijven backpropagation als een meerfasige dynamische systeemoptimalisatiemethode. Het is een leeralgoritme voor meerlagige kunstmatige neurale netwerken en heeft aanzienlijk bijgedragen aan het succes van deep learning in de jaren 2000 en 2010, toen de rekenkracht eenmaal voldoende was ontwikkeld om grote netwerken te kunnen trainen.

1969 Marvin Minsky en Seymour Papert publiceren Perceptrons: An Introduction to Computational Geometry, waarin de beperkingen van eenvoudige neurale netwerken worden belicht. In een uitgebreide editie die in 1988 verscheen, reageerden zij op beweringen dat hun conclusies uit 1969 de financiering van onderzoek naar neurale netwerken aanzienlijk hadden verminderd: “Onze versie is dat de vooruitgang al vrijwel tot stilstand was gekomen door het ontbreken van adequate basistheorieën… halverwege de jaren zestig waren er veel experimenten geweest met perceptrons, maar niemand had kunnen verklaren waarom zij in staat waren bepaalde soorten patronen te herkennen en andere niet.”

1970 De eerste antropomorfe robot, de WABOT-1, wordt gebouwd aan de Waseda Universiteit in Japan. Hij bestond uit een systeem voor het besturen van ledematen, een vision-systeem en een conversatiesysteem.

1972 MYCIN, een vroeg expertsysteem voor het identificeren van bacteriën die ernstige infecties veroorzaken en het aanbevelen van antibiotica, wordt ontwikkeld aan de Stanford University.

1973 James Lighthill rapporteert aan de British Science Research Council over de stand van zaken op het gebied van onderzoek naar kunstmatige intelligentie en concludeert dat “in geen enkel deel van het veld de ontdekkingen die tot nu toe zijn gedaan de grote impact hebben gehad die toen werd beloofd,” wat leidt tot drastisch verminderde overheidssteun voor AI-onderzoek.

1976 Computerwetenschapper Raj Reddy publiceert “Speech Recognition by Machine: A Review” in de Proceedings of the IEEE, waarin het vroege werk op het gebied van Natural Language Processing (NLP) wordt samengevat.

1978 Het programma XCON (eXpert CONfigurer), een op regels gebaseerd expertsysteem dat helpt bij het bestellen van DEC’s VAX-computers door automatisch de onderdelen te selecteren op basis van de eisen van de klant, wordt ontwikkeld aan de Carnegie Mellon University.

1979 De Stanford Cart doorkruist met succes een met stoelen gevulde kamer zonder menselijke tussenkomst in ongeveer vijf uur, en wordt daarmee een van de eerste voorbeelden van een autonoom voertuig.

1980 Wabot-2 wordt gebouwd aan de Waseda University in Japan, een musicerende humanoïde robot die in staat is met een persoon te communiceren, een muziekpartituur te lezen en deuntjes van gemiddelde moeilijkheidsgraad te spelen op een elektronisch orgel.

1981 Het Japanse ministerie van Internationale Handel en Industrie begroot $ 850 miljoen voor het Vijfde Generatie Computerproject. Doel van het project is computers te ontwikkelen die gesprekken kunnen voeren, talen kunnen vertalen, beelden kunnen interpreteren en kunnen redeneren als mensen.

1984 Electric Dreams wordt uitgebracht, een film over een driehoeksverhouding tussen een man, een vrouw en een personal computer.

1984 Op de jaarlijkse bijeenkomst van de AAAI waarschuwen Roger Schank en Marvin Minsky voor de komende “AI Winter”, waarbij zij een dreigend uiteenspatten van de AI-zeepbel voorspellen (wat drie jaar later ook gebeurde), vergelijkbaar met de afname van AI-investeringen en onderzoeksfinanciering in het midden van de jaren zeventig.

1986 Eerste bestuurderloze auto, een Mercedes-Benz busje uitgerust met camera’s en sensoren, gebouwd aan de Bundeswehr Universiteit in München onder leiding van Ernst Dickmanns, rijdt tot 55 mph op lege straten.

oktober 1986 David Rumelhart, Geoffrey Hinton, en Ronald Williams publiceren “Learning representations by back-propagating errors,” waarin zij “a new learning procedure, back-propagation, for networks of neurone-like units.”

1987 De video Knowledge Navigator, behorend bij Apple CEO John Sculley’s keynote speech op Educom, ziet een toekomst waarin “kennistoepassingen toegankelijk zouden zijn voor slimme agenten die werken via netwerken die verbonden zijn met enorme hoeveelheden gedigitaliseerde informatie.”

1988 Judea Pearl publiceert Probabilistic Reasoning in Intelligent Systems. Zijn Turing Award 2011 citaat luidt: “Judea Pearl creëerde de representatieve en computationele basis voor de verwerking van informatie onder onzekerheid. Hij is de uitvinder van Bayesiaanse netwerken, een wiskundig formalisme voor het definiëren van complexe waarschijnlijkheidsmodellen, evenals de belangrijkste algoritmen die worden gebruikt voor inferentie in deze modellen. Dit werk betekende niet alleen een revolutie op het gebied van de kunstmatige intelligentie, maar werd ook een belangrijk hulpmiddel voor vele andere takken van de techniek en de natuurwetenschappen.”

1988 Rollo Carpenter ontwikkelt de chat-bot Jabberwacky om “natuurlijk menselijk chatten op een interessante, onderhoudende en humoristische manier te simuleren.” Het is een vroege poging om kunstmatige intelligentie te creëren door menselijke interactie.

1988 Leden van het IBM T.J. Watson Research Center publiceren “A statistical approach to language translation,” de voorbode van de verschuiving van op regels gebaseerde naar probabilistische methoden van automatische vertaling, en een weerspiegeling van een bredere verschuiving naar “machine learning” op basis van statistische analyse van bekende voorbeelden, niet begrip en “begrip” van de taak bij de hand (IBM’s project Candide, dat met succes vertaalde tussen Engels en Frans, was gebaseerd op 2.2 miljoen paren zinnen, voornamelijk uit de tweetalige handelingen van het Canadese parlement).

1988 Marvin Minsky en Seymour Papert publiceren een uitgebreide editie van hun boek Perceptrons uit 1969. In “Prologue: A View from 1988” schreven zij: “Een van de redenen waarom de vooruitgang op dit gebied zo traag is geweest, is dat onderzoekers die niet bekend zijn met de geschiedenis ervan, veel van dezelfde fouten zijn blijven maken die anderen vóór hen hebben gemaakt.”

1989 Yann LeCun en andere onderzoekers van AT&T Bell Labs passen met succes een backpropagation-algoritme toe op een meerlagig neuraal netwerk, waarmee handgeschreven ZIP-codes worden herkend. Gezien de hardware beperkingen op dat moment, duurde het ongeveer 3 dagen (nog steeds een aanzienlijke verbetering ten opzichte van eerdere pogingen) om het netwerk te trainen.

1990 Rodney Brooks publiceert “Elephants Don’t Play Chess,” waarin hij een nieuwe aanpak voorstelt voor AI-het bouwen van intelligente systemen, in het bijzonder robots, vanaf de grond en op basis van voortdurende fysieke interactie met de omgeving: “De wereld is zijn eigen beste model… De kunst is om het op de juiste manier en vaak genoeg aan te voelen.”

1993 Vernor Vinge publiceert “The Coming Technological Singularity,” waarin hij voorspelt dat “binnen dertig jaar, we zullen beschikken over de technologische middelen om bovenmenselijke intelligentie te creëren. Kort daarna, zal het menselijke tijdperk worden beëindigd.”

1995 Richard Wallace ontwikkelt de chatbot A.L.I.C.E (Artificial Linguistic Internet Computer Entity), geïnspireerd door Joseph Weizenbaum’s ELIZA programma, maar met de toevoeging van natuurlijke taal monster dataverzameling op een ongekende schaal, mogelijk gemaakt door de komst van het Web.

1997 Sepp Hochreiter en Jürgen Schmidhuber stellen Long Short-Term Memory (LSTM) voor, een soort recurrent neuraal netwerk dat tegenwoordig wordt gebruikt bij handschriftherkenning en spraakherkenning.

1997 Deep Blue wordt het eerste computerschaakprogramma dat een regerend wereldkampioen schaken verslaat.

1998 Dave Hampton en Caleb Chung creëren Furby, de eerste huis- of huisdierrobot.

1998 Yann LeCun, Yoshua Bengio en anderen publiceren artikelen over de toepassing van neurale netwerken op handschriftherkenning en over het optimaliseren van backpropagation.

2000 Cynthia Breazeal van MIT ontwikkelt Kismet, een robot die emoties kan herkennen en simuleren.

2000 Honda’s ASIMO-robot, een kunstmatig intelligente humanoïde robot, kan net zo snel lopen als een mens en levert dienbladen af bij klanten in een restaurantomgeving.

2001 A.I. Artificial Intelligence wordt uitgebracht, een film van Steven Spielberg over David, een kinderlijke androïde die op unieke wijze is geprogrammeerd met het vermogen om lief te hebben.

2004 De eerste DARPA Grand Challenge, een prijsvraag voor autonome voertuigen, wordt gehouden in de Mojave-woestijn. Geen van de autonome voertuigen voltooide de route van 150 mijl.

2006 Oren Etzioni, Michele Banko, en Michael Cafarella munt de term “machine reading,” definiëren het als een inherent zonder toezicht “autonoom begrip van tekst.”

2006 Geoffrey Hinton publiceert “Learning Multiple Layers of Representation,” een samenvatting van de ideeën die hebben geleid tot “multilayer neural networks that contain top-down connections and training them to generate sensory data rather than to classify it,” i.e., de nieuwe benaderingen van deep learning.

2007 Fei Fei Li en collega’s aan de Princeton University beginnen ImageNet samen te stellen, een grote database van geannoteerde afbeeldingen die is ontworpen om te helpen bij onderzoek naar software voor visuele objectherkenning.

2009 Rajat Raina, Anand Madhavan en Andrew Ng publiceren “Large-scale Deep Unsupervised Learning using Graphics Processors”, waarin ze stellen dat “moderne grafische processors de rekencapaciteiten van multicore CPU’s ver overtreffen, en het potentieel hebben om de toepasbaarheid van diepe unsupervised learning-methodes radicaal te veranderen.”

2009 Google begint in het geheim met de ontwikkeling van een bestuurderloze auto. In 2014 slaagt het als eerste, in Nevada, voor een zelfrijtest van de Amerikaanse staat.

2009 Computerwetenschappers van het Intelligent Information Laboratory van de Northwestern University ontwikkelen Stats Monkey, een programma dat sportnieuwsverhalen schrijft zonder menselijke tussenkomst.

2010 Lancering van de ImageNet Large Scale Visual Recognition Challenge (ILSVCR), een jaarlijkse AI-objectherkenningswedstrijd.

2011 Een convolutioneel neuraal netwerk wint de Duitse verkeersbordherkenningswedstrijd met 99,46% nauwkeurigheid (versus mensen met 99,22%).

2011 Watson, een computer die natuurlijke taalvragen beantwoordt, doet mee aan Jeopardy! en verslaat twee voormalige kampioenen.

2011 Onderzoekers aan de IDSIA in Zwitserland melden een foutenpercentage van 0,27% bij handschriftherkenning met behulp van convolutionele neurale netwerken, een aanzienlijke verbetering ten opzichte van de 0.35%-0,40% foutenpercentage in voorgaande jaren.

Juni 2012 Jeff Dean en Andrew Ng rapporteren over een experiment waarin ze een zeer groot neuraal netwerk 10 miljoen ongelabelde afbeeldingen lieten zien die willekeurig afkomstig waren van YouTube-video’s, en “tot onze vermaak leerde een van onze kunstmatige neuronen sterk te reageren op foto’s van … katten.”

oktober 2012 Een convolutioneel neuraal netwerk ontworpen door onderzoekers van de Universiteit van Toronto behaalt een foutenpercentage van slechts 16% in de ImageNet Large Scale Visual Recognition Challenge, een aanzienlijke verbetering ten opzichte van het foutenpercentage van 25% dat het jaar daarvoor door de beste inzending werd behaald.

Maart 2016 Google DeepMind’s AlphaGo verslaat Go-kampioen Lee Sedol.

Het web (met name Wikipedia) is een geweldige bron voor de geschiedenis van kunstmatige intelligentie. Andere belangrijke bronnen zijn Nils Nilsson, The Quest for Artificial Intelligence: A History of Ideas and Achievements; Stuart Russell en Peter Norvig, Artificial Intelligence: A Modern Approach; Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World; en Artificial Intelligence and Life in 2030. Gelieve opmerkingen te maken over onopzettelijke omissies en onnauwkeurigheden.

Zie ook A Very Short History of Data Science, A Very Short History of Big Data, en A Very Short History of Information Technology (IT).

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.