A Very Short History Of Artificial Intelligence (AI)

, Author

1308 Kataloński poeta i teolog Ramon Llull publikuje Ars generalis ultima (Ostateczną sztukę ogólną), udoskonalając swoją metodę wykorzystywania papierowych środków mechanicznych do tworzenia nowej wiedzy z kombinacji pojęć.

1666 Matematyk i filozof Gottfried Leibniz publikuje Dissertatio de arte combinatoria (O sztuce kombinatorycznej), podążając za Ramonem Llullem w proponowaniu alfabetu ludzkiej myśli i argumentując, że wszystkie idee są niczym innym jak kombinacjami stosunkowo niewielkiej liczby prostych pojęć.

1726 Jonathan Swift publikuje Podróże Guliwera, które zawierają opis Silnika, maszyny na wyspie Laputa (i parodię idei Llulla): „Projekt poprawy wiedzy spekulatywnej poprzez praktyczne i mechaniczne operacje”. Używając tego „urządzenia”, „najbardziej ignorancka osoba za rozsądną opłatą i przy odrobinie pracy fizycznej może pisać książki z dziedziny filozofii, poezji, polityki, prawa, matematyki i teologii, bez najmniejszej pomocy geniuszu lub nauki.”

1763 Thomas Bayes opracowuje ramy dla rozumowania o prawdopodobieństwie zdarzeń. Wnioskowanie bayesowskie stanie się wiodącym podejściem w uczeniu maszynowym.

1854 George Boole argumentuje, że logiczne rozumowanie może być wykonywane systematycznie w taki sam sposób, jak rozwiązywanie układu równań.

1898 Na wystawie elektrycznej w niedawno ukończonym Madison Square Garden Nikola Tesla przeprowadza demonstrację pierwszego na świecie statku sterowanego radiowo. Łódź była wyposażona w, jak to określił Tesla, „pożyczony umysł”.”

1914 Hiszpański inżynier Leonardo Torres y Quevedo demonstruje pierwszą maszynę do gry w szachy, zdolną do rozgrywania endgames króla i gawrona przeciwko królowi bez żadnej interwencji człowieka.”

1921 Czeski pisarz Karel Čapek wprowadza słowo „robot” w swojej sztuce R.U.R. (Rossum’s Universal Robots). Słowo „robot” pochodzi od słowa „robota” (praca).

1925 Houdina Radio Control wypuszcza sterowany radiowo samochód bez kierowcy, który jeździ po ulicach Nowego Jorku.

1927 Na ekrany kin wchodzi film science-fiction Metropolis. Pojawia się w nim sobowtór chłopki Marii, który wywołuje chaos w Berlinie w 2026 roku – był to pierwszy robot przedstawiony na filmie, który zainspirował wygląd C-3PO w stylu Art Deco w Gwiezdnych wojnach.

1929 Makoto Nishimura projektuje Gakutensoku, co po japońsku oznacza „uczenie się z praw natury”, pierwszego robota zbudowanego w Japonii. Mógł on zmieniać wyraz twarzy oraz poruszać głową i rękami za pomocą mechanizmu ciśnienia powietrza.

1943 Warren S. McCulloch i Walter Pitts publikują „A Logical Calculus of the Ideas Immanent in Nervous Activity” w Bulletin of Mathematical Biophysics. Ten wpływowy artykuł, w którym omówili sieci wyidealizowanych i uproszczonych sztucznych „neuronów” oraz sposób, w jaki mogą one wykonywać proste funkcje logiczne, stanie się inspiracją dla komputerowych „sieci neuronowych” (a później „głębokiego uczenia się”) i ich popularnego określenia jako „naśladujących mózg”.”

1949 Edmund Berkeley publikuje Giant Brains: Or Machines That Think, w której pisze: „Ostatnio pojawiło się wiele wiadomości o dziwnych gigantycznych maszynach, które mogą przetwarzać informacje z ogromną prędkością i zręcznością…. Maszyny te są podobne do tego, czym byłby mózg, gdyby był zrobiony ze sprzętu i drutu zamiast z ciała i nerwów… Maszyna może przetwarzać informacje; może obliczać, wnioskować i wybierać; może wykonywać rozsądne operacje z informacjami. A machine, therefore, can think.”

1949 Donald Hebb publikuje Organization of Behavior: A Neuropsychological Theory”, w której proponuje teorię uczenia się opartą na przypuszczeniach dotyczących sieci neuronowych i zdolności synaps do wzmacniania lub osłabiania się w czasie.

1950 Claude Shannon „Programming a Computer for Playing Chess” jest pierwszym opublikowanym artykułem na temat opracowania programu komputerowego do gry w szachy.

1950 Alan Turing publikuje „Computing Machinery and Intelligence”, w której proponuje „grę imitacji”, która później stanie się znana jako „Test Turinga”.”

1951 Marvin Minsky i Dean Edmunds budują SNARC (Stochastic Neural Analog Reinforcement Calculator), pierwszą sztuczną sieć neuronową, używając 3000 lamp próżniowych do symulacji sieci 40 neuronów.

1952 Arthur Samuel tworzy pierwszy komputerowy program do gry w warcaby i pierwszy program komputerowy, który uczy się samodzielnie.

31 sierpnia 1955 Termin „sztuczna inteligencja” zostaje ukuty w propozycji „2-miesięcznych, 10-osobowych badań nad sztuczną inteligencją”, złożonej przez Johna McCarthy’ego (Dartmouth College), Marvina Minsky’ego (Uniwersytet Harvarda), Nathaniela Rochestera (IBM) i Claude’a Shannona (Bell Telephone Laboratories). Warsztaty, które odbyły się rok później, w lipcu i sierpniu 1956 r., są powszechnie uważane za oficjalną datę narodzin nowej dziedziny.

Grudzień 1955 Herbert Simon i Allen Newell opracowują Logic Theorist, pierwszy program sztucznej inteligencji, który ostatecznie udowodni 38 z pierwszych 52 twierdzeń w Principia Mathematica Whiteheada i Russella.

1957 Frank Rosenblatt opracowuje Perceptron, wczesną sztuczną sieć neuronową umożliwiającą rozpoznawanie wzorców w oparciu o dwuwarstwową komputerową sieć uczenia się. New York Times donosi, że Perceptron jest „embrionem elektronicznego komputera, który, jak się oczekuje, będzie w stanie chodzić, mówić, widzieć, pisać, rozmnażać się i być świadomym swego istnienia”. The New Yorker nazwał go „niezwykłą maszyną… zdolną do tego, co równa się myśleniu.”

1958 John McCarthy opracowuje język programowania Lisp, który staje się najpopularniejszym językiem programowania używanym w badaniach nad sztuczną inteligencją.

1959 Arthur Samuel tworzy termin „uczenie maszynowe”, informując o programowaniu komputera „tak, że nauczy się on grać w warcaby lepiej niż osoba, która napisała program.”

1959 Oliver Selfridge publikuje „Pandemonium: A paradigm for learning” w Proceedings of the Symposium on Mechanization of Thought Processes, w którym opisuje model procesu, dzięki któremu komputery mogłyby rozpoznawać wzorce, które nie zostały wcześniej określone.

1959 John McCarthy publikuje „Programs with Common Sense” w Proceedings of the Symposium on Mechanization of Thought Processes, w którym opisuje Advice Taker, program do rozwiązywania problemów poprzez manipulowanie zdaniami w językach formalnych, którego ostatecznym celem jest stworzenie programów, „które uczą się na podstawie swoich doświadczeń tak skutecznie, jak robią to ludzie.”

1961 Pierwszy robot przemysłowy, Unimate, rozpoczyna pracę na linii montażowej w fabryce General Motors w New Jersey.

1961 James Slagle opracowuje SAINT (Symbolic Automatic INTegrator), program heurystyczny, który rozwiązywał problemy całkowania symbolicznego w świeżo poznanym rachunku.

1964 Daniel Bobrow kończy pracę doktorską w MIT pod tytułem „Natural Language Input for a Computer Problem Solving System” i opracowuje STUDENT, program komputerowy rozumiejący język naturalny.

1965 Herbert Simon przewiduje, że „w ciągu dwudziestu lat maszyny będą w stanie wykonać każdą pracę, którą może wykonać człowiek.”

1965 Hubert Dreyfus publikuje „Alchemię i AI”, argumentując, że umysł nie jest jak komputer i że istnieją granice, poza którymi AI nie będzie się rozwijać.

1965 I.J. Good pisze w „Speculations Concerning the First Ultraintelligent Machine”, że „pierwsza ultrainteligentna maszyna jest ostatnim wynalazkiem, jakiego człowiek musi kiedykolwiek dokonać, pod warunkiem, że maszyna jest na tyle potulna, że powie nam, jak utrzymać ją pod kontrolą.”

1965 Joseph Weizenbaum opracowuje ELIZĘ, interaktywny program, który prowadzi dialog w języku angielskim na dowolny temat. Weizenbaum, który chciał zademonstrować powierzchowność komunikacji między człowiekiem a maszyną, był zaskoczony liczbą osób, które przypisały programowi komputerowemu uczucia podobne do ludzkich.

1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg i Carl Djerassi rozpoczynają pracę nad DENDRAL na Uniwersytecie Stanforda. Pierwszy system ekspercki, zautomatyzował proces podejmowania decyzji i rozwiązywania problemów przez chemików organicznych, w ogólnym celu badania tworzenia hipotez i konstruowania modeli indukcji empirycznej w nauce.

1966 Robot Shakey jest pierwszym robotem mobilnym ogólnego przeznaczenia, który jest w stanie rozumować o własnych działaniach. W artykule magazynu Life z 1970 roku o tym „pierwszym elektronicznym człowieku”, Marvin Minsky jest cytowany mówiąc z „pewnością”: „Za trzy do ośmiu lat będziemy mieli maszynę o ogólnej inteligencji przeciętnego człowieka.”

1968 Na ekrany kin wchodzi film 2001: Odyseja kosmiczna, w którym występuje Hal, czujący komputer.”

1968 Terry Winograd opracowuje SHRDLU, wczesny program komputerowy do rozumienia języka naturalnego.”

1969 Arthur Bryson i Yu-Chi Ho opisują wsteczną propagację jako metodę wieloetapowej optymalizacji systemów dynamicznych. Algorytm uczenia dla wielowarstwowych sztucznych sieci neuronowych, w znacznym stopniu przyczynił się do sukcesu głębokiego uczenia w latach 2000 i 2010, gdy moc obliczeniowa stała się wystarczająco zaawansowana, aby pomieścić szkolenie dużych sieci.

1969 Marvin Minsky i Seymour Papert publikują Perceptrons: An Introduction to Computational Geometry, podkreślając ograniczenia prostych sieci neuronowych. W rozszerzonym wydaniu opublikowanym w 1988 r. odpowiedzieli na zarzuty, że ich wnioski z 1969 r. znacznie zmniejszyły fundusze na badania nad sieciami neuronowymi: „Nasza wersja jest taka, że postęp został już praktycznie zatrzymany z powodu braku odpowiednich podstawowych teorii… w połowie lat 60. przeprowadzono wiele eksperymentów z perceptronami, ale nikt nie był w stanie wyjaśnić, dlaczego były one w stanie rozpoznać pewne rodzaje wzorców, a nie inne.”

1970 Pierwszy antropomorficzny robot, WABOT-1, został zbudowany na Uniwersytecie Waseda w Japonii. Składał się on z systemu kontroli kończyn, systemu wizyjnego i systemu konwersacyjnego.

1972 MYCIN, wczesny system ekspercki do identyfikacji bakterii powodujących poważne infekcje i zalecania antybiotyków, zostaje opracowany na Uniwersytecie Stanforda.

1973 James Lighthill składa raport brytyjskiej Radzie Badań Naukowych na temat stanu badań nad sztuczną inteligencją, stwierdzając, że „w żadnej części tej dziedziny odkrycia dokonane do tej pory nie przyniosły tak dużego wpływu, jaki wówczas obiecywano”, co prowadzi do drastycznego zmniejszenia rządowego wsparcia dla badań nad AI.

1976 Informatyk Raj Reddy publikuje „Speech Recognition by Machine: A Review” w Proceedings of the IEEE, podsumowując wczesne prace nad przetwarzaniem języka naturalnego (NLP).

1978 Program XCON (eXpert CONfigurer), oparty na regułach system ekspercki wspomagający zamawianie komputerów VAX firmy DEC poprzez automatyczny dobór komponentów na podstawie wymagań klienta, zostaje opracowany na Uniwersytecie Carnegie Mellon.

1979 Wózek Stanforda z powodzeniem pokonuje wypełniony krzesłami pokój bez interwencji człowieka w ciągu około pięciu godzin, stając się jednym z najwcześniejszych przykładów pojazdu autonomicznego.

1980 Na Uniwersytecie Waseda w Japonii zostaje zbudowany Wabot-2, muzykalny robot humanoidalny zdolny do komunikowania się z człowiekiem, odczytywania partytury muzycznej i grania utworów o średnim stopniu trudności na organach elektronicznych.

1981 Japońskie Ministerstwo Handlu Międzynarodowego i Przemysłu przeznacza 850 milionów dolarów na projekt Fifth Generation Computer. Projekt miał na celu opracowanie komputerów, które mogłyby prowadzić rozmowy, tłumaczyć języki, interpretować obrazy i rozumować jak istoty ludzkie.

1984 Ukazuje się Electric Dreams, film o trójkącie miłosnym między mężczyzną, kobietą i komputerem osobistym.

1984 Na dorocznym spotkaniu AAAI Roger Schank i Marvin Minsky ostrzegają przed nadchodzącą „zimą AI”, przewidując nieuchronne pęknięcie bańki AI (co nastąpiło trzy lata później), podobne do zmniejszenia inwestycji w AI i finansowania badań w połowie lat 70.

1986 Pierwszy samochód bez kierowcy, furgonetka Mercedes-Benz wyposażona w kamery i czujniki, zbudowana na Uniwersytecie Bundeswehry w Monachium pod kierownictwem Ernsta Dickmannsa, jedzie do 55 mil na godzinę po pustych ulicach.

Październik 1986 David Rumelhart, Geoffrey Hinton i Ronald Williams publikują „Learning representations by back-propagating errors”, w którym opisują „nową procedurę uczenia się, back-propagation, dla sieci jednostek neuronopodobnych.”

1987 Wideo Knowledge Navigator, towarzyszące przemówieniu inauguracyjnemu CEO Apple Johna Sculleya na Educom, przewiduje przyszłość, w której „aplikacje wiedzy byłyby dostępne dla inteligentnych agentów pracujących w sieciach podłączonych do ogromnych ilości zdigitalizowanych informacji.”

1988 Judea Pearl publikuje Probabilistic Reasoning in Intelligent Systems. Jego cytat z Nagrody Turinga 2011 brzmi: „Judea Pearl stworzył reprezentacyjne i obliczeniowe podstawy dla przetwarzania informacji w warunkach niepewności. Przypisuje mu się wynalezienie sieci bayesowskich, matematycznego formalizmu do definiowania złożonych modeli prawdopodobieństwa, jak również głównych algorytmów używanych do wnioskowania w tych modelach. Praca ta nie tylko zrewolucjonizowała dziedzinę sztucznej inteligencji, ale także stała się ważnym narzędziem dla wielu innych gałęzi inżynierii i nauk przyrodniczych.”

1988 Rollo Carpenter rozwija chat-bota Jabberwacky, aby „symulować naturalny ludzki czat w interesujący, zabawny i humorystyczny sposób”. Jest to wczesna próba stworzenia sztucznej inteligencji poprzez interakcję międzyludzką.

1988 Członkowie IBM T.J. Watson Research Center publikują „A statistical approach to language translation”, zwiastując przejście od opartych na regułach do probabilistycznych metod tłumaczenia maszynowego i odzwierciedlając szersze przejście do „uczenia maszynowego” opartego na analizie statystycznej znanych przykładów, a nie na zrozumieniu i „zrozumieniu” danego zadania (projekt IBM Candide, z powodzeniem tłumaczący między angielskim i francuskim, opierał się na 2.2 mln par zdań, głównie z dwujęzycznych obrad kanadyjskiego parlamentu).

1988 Marvin Minsky i Seymour Papert publikują rozszerzone wydanie swojej książki Perceptrons z 1969 roku. W „Prologue: A View from 1988” napisali: „One reason why progress has been so slow in this field is that researchers unfamiliar with its history have continued to make many of the same errors that others have made before them.”

1989 Yann LeCun and other researchers at AT&T Bell Labs successfully apply a backpropagation algorithm to a multi-layer neural network, recognizing handwritten ZIP codes. Biorąc pod uwagę ówczesne ograniczenia sprzętowe, wytrenowanie sieci zajęło około 3 dni (co i tak jest znacznym postępem w stosunku do wcześniejszych wysiłków).

1990 Rodney Brooks publikuje „Elephants Don’t Play Chess”, proponując nowe podejście do AI – budowanie inteligentnych systemów, w szczególności robotów, od podstaw i na podstawie ciągłej fizycznej interakcji ze środowiskiem: „Świat jest swoim własnym najlepszym modelem… Sztuką jest wyczuć go odpowiednio i wystarczająco często.”

1993 Vernor Vinge publikuje „The Coming Technological Singularity”, w którym przewiduje, że „w ciągu trzydziestu lat będziemy dysponować technologicznymi środkami do stworzenia nadludzkiej inteligencji. Wkrótce potem era ludzka dobiegnie końca.”

1995 Richard Wallace opracowuje chatbota A.L.I.C.E (Artificial Linguistic Internet Computer Entity), zainspirowanego programem ELIZA Josepha Weizenbauma, ale z dodatkiem zbierania danych z próbek języka naturalnego na niespotykaną dotąd skalę, co stało się możliwe dzięki pojawieniu się sieci WWW.

1997 Sepp Hochreiter i Jürgen Schmidhuber proponują Long Short-Term Memory (LSTM), rodzaj rekurencyjnej sieci neuronowej używanej dziś w rozpoznawaniu pisma ręcznego i mowy.

1997 Deep Blue zostaje pierwszym komputerowym programem szachowym, który pokonuje panującego mistrza świata w szachach.

1998 Dave Hampton i Caleb Chung tworzą Furby’ego, pierwszego robota domowego lub zwierzęcego.

1998 Yann LeCun, Yoshua Bengio i inni publikują prace na temat zastosowania sieci neuronowych do rozpoznawania pisma ręcznego oraz optymalizacji propagacji wstecznej.

2000 Cynthia Breazeal z MIT opracowuje Kismet, robota, który mógłby rozpoznawać i symulować emocje.

2000 Robot ASIMO firmy Honda, sztucznie inteligentny robot humanoidalny, jest w stanie chodzić tak szybko jak człowiek, dostarczając tace klientom w restauracji.

2001 A.I. Artificial Intelligence zostaje wydany, film Stevena Spielberga o Davidzie, dziecięcym androidzie wyjątkowo zaprogramowanym z umiejętnością kochania.

2004 Pierwsze DARPA Grand Challenge, konkurs z nagrodami dla pojazdów autonomicznych, odbywa się na pustyni Mojave. Żaden z autonomicznych pojazdów nie ukończył 150-milowej trasy.

2006 Oren Etzioni, Michele Banko i Michael Cafarella wprowadzają termin „czytanie maszynowe”, definiując je jako z natury nienadzorowane „autonomiczne rozumienie tekstu.”

2006 Geoffrey Hinton publikuje „Learning Multiple Layers of Representation,” podsumowując pomysły, które doprowadziły do „wielowarstwowych sieci neuronowych, które zawierają połączenia top-down i szkolenie ich do generowania danych sensorycznych, a nie do ich klasyfikacji,” tj, nowe podejścia do głębokiego uczenia się.

2007 Fei Fei Li i koledzy z Princeton University zaczynają montować ImageNet, dużą bazę danych adnotowanych obrazów zaprojektowaną w celu pomocy w badaniach nad oprogramowaniem do wizualnego rozpoznawania obiektów.

2009 Rajat Raina, Anand Madhavan i Andrew Ng publikują pracę „Large-scale Deep Unsupervised Learning using Graphics Processors”, twierdząc, że „nowoczesne procesory graficzne znacznie przewyższają możliwości obliczeniowe wielordzeniowych procesorów CPU i mają potencjał, aby zrewolucjonizować zastosowanie metod głębokiego uczenia bez nadzoru.”

2009 Google zaczyna w tajemnicy rozwijać samochód bez kierowcy. W 2014 r. jako pierwszy przeszedł on w Nevadzie, w amerykańskim stanie, test samodzielnej jazdy.

2009 Informatycy z Intelligent Information Laboratory na Northwestern University opracowują Stats Monkey, program, który pisze wiadomości sportowe bez udziału człowieka.

2010 Rozpoczęcie ImageNet Large Scale Visual Recognition Challenge (ILSVCR), corocznego konkursu rozpoznawania obiektów AI.

2011 Sieć neuronowa konwencjonalna wygrywa niemiecki konkurs rozpoznawania znaków drogowych z dokładnością 99,46% (w porównaniu z 99,22% w przypadku ludzi).

2011 Watson, komputer odpowiadający na pytania w języku naturalnym, bierze udział w konkursie Jeopardy! i pokonuje dwóch byłych mistrzów.

2011 Naukowcy z IDSIA w Szwajcarii informują o poziomie błędu 0,27% w rozpoznawaniu pisma ręcznego przy użyciu sieci neuronowych konwencjonalnych, co stanowi znaczną poprawę w porównaniu z poziomem błędu 0,35%-0,40% w przypadku sieci neuronowych konwencjonalnych.35%-0,40% poziomu błędu w poprzednich latach.

Czerwiec 2012 Jeff Dean i Andrew Ng donoszą o eksperymencie, w którym pokazali bardzo dużej sieci neuronowej 10 milionów nieoznakowanych obrazów losowo pobranych z filmów z YouTube, i „ku naszemu rozbawieniu, jeden z naszych sztucznych neuronów nauczył się silnie reagować na obrazy… kotów.”

Październik 2012 Konwencjonalna sieć neuronowa zaprojektowana przez naukowców z Uniwersytetu w Toronto osiąga poziom błędu wynoszący zaledwie 16% w ImageNet Large Scale Visual Recognition Challenge, co stanowi znaczną poprawę w stosunku do 25% poziomu błędu osiągniętego przez najlepszy wpis rok wcześniej.

Marzec 2016 Google DeepMind’s AlphaGo pokonuje mistrza Go Lee Sedol.

Internet (zwłaszcza Wikipedia) jest doskonałym źródłem dla historii sztucznej inteligencji. Inne kluczowe źródła obejmują Nils Nilsson, The Quest for Artificial Intelligence: A History of Ideas and Achievements; Stuart Russell i Peter Norvig, Artificial Intelligence: A Modern Approach; Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World; oraz Artificial Intelligence and Life in 2030. Prosimy o komentarze dotyczące niezamierzonych pominięć i nieścisłości.

Zobacz także A Very Short History of Data Science, A Very Short History of Big Data, and A Very Short History of Information Technology (IT).

.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.