1308 O poeta e teólogo catalão Ramon Llull publica Ars generalis ultima (The Ultimate General Art), aperfeiçoando ainda mais o seu método de utilização de meios mecânicos baseados em papel para criar novos conhecimentos a partir de combinações de conceitos.
1666 O matemático e filósofo Gottfried Leibniz publica Dissertatio de arte combinatoria (Sobre a Arte Combinatória), seguindo Ramon Llull ao propor um alfabeto do pensamento humano e argumentando que todas as ideias não são mais do que combinações de um número relativamente pequeno de conceitos simples.
1726 Jonathan Swift publica Gulliver’s Travels, que inclui uma descrição do Motor, uma máquina na ilha de Laputa (e uma paródia das ideias de Llull): “um projecto para melhorar o conhecimento especulativo através de operações práticas e mecânicas.” Usando esta “Contrivância”, “a Pessoa mais ignorante a um Custo razoável, e com um pouco de Trabalho Corporal, pode escrever Livros de Filosofia, Poesia, Politicks, Direito, Mathematicks, e Teologia, com a menor Assistência de Gênio ou estudo”
1763 Thomas Bayes desenvolve um quadro de raciocínio sobre a probabilidade de eventos. A inferência Bayesiana se tornará uma abordagem líder no aprendizado de máquinas.
1854 George Boole argumenta que o raciocínio lógico poderia ser realizado sistematicamente da mesma forma que a resolução de um sistema de equações.
1898 Em uma exposição elétrica no recentemente concluído Madison Square Garden, Nikola Tesla faz uma demonstração do primeiro navio rádio-controlado do mundo. O barco foi equipado com, como Tesla descreveu, “uma mente emprestada”
1914 O engenheiro espanhol Leonardo Torres y Quevedo demonstra a primeira máquina de jogar xadrez, capaz de rei e torre contra finais de rei sem qualquer intervenção humana.
1921 O escritor checo Karel Čapek introduz a palavra “robô” na sua peça R.U.R. (Rossum’s Universal Robots). A palavra “robot” vem da palavra “robota” (trabalho).
1925 Houdina Radio Control lança um carro sem condutor controlado por rádio, viajando pelas ruas de Nova Iorque.
1927 O filme de ficção científica Metropolis é lançado. Ele apresenta um duplo robô de uma camponesa, Maria, que desencadeia o caos em Berlim de 2026 – foi o primeiro robô retratado em filme, inspirando o visual Art Deco do C-3PO em Star Wars.
1929 Makoto Nishimura desenha Gakutensoku, japonês para “aprender com as leis da natureza”, o primeiro robô construído no Japão. Ele poderia mudar sua expressão facial e mover sua cabeça e mãos através de um mecanismo de pressão de ar.
1943 Warren S. McCulloch e Walter Pitts publicam “A Logical Calculus of the Ideas Immanent in Nervous Activity” no Bulletin of Mathematical Biophysics. Este influente artigo, no qual eles discutiram redes de “neurônios” artificiais idealizados e simplificados e como eles poderiam desempenhar funções lógicas simples, se tornará a inspiração para “redes neurais” baseadas em computador (e mais tarde “aprendizagem profunda”) e sua descrição popular como “imitando o cérebro”
1949 Edmund Berkeley publica “Cérebros Gigantes”: Ou Machines That Think em que ele escreve: “Recentemente tem havido uma boa quantidade de notícias sobre máquinas gigantes estranhas que podem lidar com informações com grande velocidade e habilidade…. Essas máquinas são semelhantes ao que um cérebro seria se fosse feito de hardware e fio em vez de carne e nervos… Uma máquina pode lidar com informações; pode calcular, concluir e escolher; pode realizar operações razoáveis com informações. Uma máquina, portanto, pode pensar”
1949 Donald Hebb publica Organização do Comportamento: A Neuropsychological Theory in which he proposes a theory about learning based on conjectures regarding neural networks and the ability of synapses to strengthen or weaken over time.
1950 Claude Shannon’s “Programming a Computer for Playing Chessing” is the first published article on developing a chess-playing computer program.
1950 Alan Turing publica “Computing Machinery and Intelligence” in which he proposes “the imitation game” which will later become known as the “Turing Test”.”
1951 Marvin Minsky e Dean Edmunds constroem o SNARC (Stochastic Neural Analog Reinforcement Calculator), a primeira rede neural artificial, usando 3000 tubos de vácuo para simular uma rede de 40 neurônios.
1952 Arthur Samuel desenvolve o primeiro programa de computador de checagem e o primeiro programa de computador a aprender por conta própria.
Agosto 31, 1955 O termo “inteligência artificial” é cunhado numa proposta de “2 meses, 10 homens de estudo de inteligência artificial” apresentada por John McCarthy (Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM), e Claude Shannon (Bell Telephone Laboratories). O workshop, que aconteceu um ano depois, em julho e agosto de 1956, é geralmente considerado como a data oficial de nascimento do novo campo.
dezembro de 1955 Herbert Simon e Allen Newell desenvolvem o Theorist Logic, o primeiro programa de inteligência artificial, que eventualmente provaria 38 dos primeiros 52 teoremas em Whitehead e Principia Mathematica de Russell.
1957 Frank Rosenblatt desenvolve o Perceptron, uma rede neural artificial inicial que permite o reconhecimento de padrões com base em uma rede de aprendizagem de computadores de duas camadas. O New York Times relatou que o Perceptron é “o embrião de um computador eletrônico que espera ser capaz de andar, falar, ver, escrever, reproduzir-se e ser consciente de sua existência”. O New Yorker chamou-o de “máquina notável… capaz do que equivale a pensar”
1958 John McCarthy desenvolve a linguagem de programação Lisp que se torna a linguagem de programação mais popular utilizada na pesquisa de inteligência artificial.
1959 Arthur Samuel publica o termo “aprendizagem de máquina”, relatando sobre a programação de um computador “para que ele aprenda a jogar um jogo de damas melhor do que pode ser jogado pela pessoa que escreveu o programa”
1959 Oliver Selfridge publica “Pandemonium”: Um paradigma para aprender” nos Anais do Simpósio sobre Mecanização de Processos de Pensamento, no qual ele descreve um modelo para um processo pelo qual os computadores poderiam reconhecer padrões que não foram especificados antecipadamente.
1959 John McCarthy publica “Programas com Sentido Comum” nos Anais do Simpósio sobre Mecanização de Processos de Pensamento, no qual ele descreve o “Advice Taker”, um programa para resolver problemas através da manipulação de frases em línguas formais com o objetivo final de fazer programas “que aprendem com sua experiência tão efetivamente quanto os humanos.”
1961 O primeiro robô industrial, Unimate, começa a trabalhar numa linha de montagem numa fábrica da General Motors em Nova Jersey.
1961 James Slagle desenvolve o SAINT (Symbolic Automatic INTegrator), um programa heurístico que resolvia problemas de integração simbólica no cálculo dos calouros.
1964 Daniel Bobrow completa sua dissertação de doutorado no MIT intitulada “Natural Language Input for a Computer Problem Solving System” e desenvolve STUDENT, um programa de computador que compreende a linguagem natural.
1965 Herbert Simon prevê que “máquinas serão capazes, dentro de vinte anos, de fazer qualquer trabalho que um homem possa fazer”
1965 Hubert Dreyfus publica “Alquimia e IA”, argumentando que a mente não é como um computador e que havia limites além dos quais a IA não progredia.
1965 I.J. Good escreve em “Speculations Concerning the First Ultraintelligent Machine” que “a primeira máquina ultrainteligente é a última invenção que o homem precisa fazer, desde que a máquina seja dócil o suficiente para nos dizer como mantê-la sob controle”
1965 Joseph Weizenbaum desenvolve o ELIZA, um programa interativo que continua um diálogo em língua inglesa sobre qualquer tópico. Weizenbaum, que queria demonstrar a superficialidade da comunicação entre homem e máquina, ficou surpreso com o número de pessoas que atribuía sentimentos humanos ao programa de computador.
1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg e Carl Djerassi começam a trabalhar no DENDRAL na Universidade de Stanford. O primeiro sistema especializado, automatizou o processo de tomada de decisão e o comportamento de resolução de problemas de químicos orgânicos, com o objetivo geral de estudar a formação de hipóteses e construir modelos de indução empírica na ciência.
1966 Shakey o robô é o primeiro robô móvel de propósito geral a ser capaz de raciocinar sobre suas próprias ações. Em um artigo da revista Life 1970 sobre essa “primeira pessoa eletrônica”, Marvin Minsky é citado dizendo com “certeza”: “Dentro de três a oito anos teremos uma máquina com a inteligência geral de um ser humano médio.”
1968 O filme 2001: Space Odyssey é lançado, apresentando Hal, um computador sensível.
1968 Terry Winograd desenvolve SHRDLU, um programa de computador de compreensão da linguagem natural primitiva.
1969 Arthur Bryson e Yu-Chi Ho descrevem a retropropagação como um método de optimização dinâmica do sistema em vários estágios. Um algoritmo de aprendizado para redes neurais artificiais multicamadas, contribuiu significativamente para o sucesso do aprendizado profundo nos anos 2000 e 2010, uma vez que o poder computacional avançou o suficiente para acomodar o treinamento de grandes redes.
1969 Marvin Minsky e Seymour Papert publicam Perceptrons: Uma Introdução à Geometria Computacional, destacando as limitações das redes neurais simples. Em uma edição expandida publicada em 1988, eles responderam às alegações de que suas conclusões de 1969 reduziram significativamente o financiamento para a pesquisa de redes neurais: “Nossa versão é que o progresso já havia parado virtualmente por causa da falta de teorias básicas adequadas… em meados dos anos 60 haviam sido feitos muitos experimentos com perceptrons, mas ninguém havia sido capaz de explicar porque eles eram capazes de reconhecer certos tipos de padrões e não outros”
1970 O primeiro robô antropomórfico, o WABOT-1, foi construído na Universidade de Waseda, no Japão. Consiste de um sistema de controle de membros, um sistema de visão e um sistema de conversação.
1972 MYCIN, um sistema de peritos iniciais para identificar bactérias causadoras de infecções graves e recomendar antibióticos, é desenvolvido na Universidade de Stanford.
1973 James Lighthill relata ao British Science Research Council sobre a pesquisa estatal de inteligência artificial, concluindo que “em nenhuma parte do campo as descobertas feitas até agora produziram o maior impacto que foi então prometido”, levando à redução drástica do apoio governamental à pesquisa de IA.
1976 O cientista da computação Raj Reddy publica “Speech Recognition by Machine”: A Review” no Proceedings of the IEEE, resumindo o trabalho inicial sobre Processamento de Linguagem Natural (PNL).
1978 O programa XCON (eXpert CONfigurer), um sistema especializado baseado em regras que auxilia na encomenda de computadores VAX da DEC, selecionando automaticamente os componentes com base nos requisitos do cliente, é desenvolvido na Carnegie Mellon University.
1979 O Stanford Cart atravessa com sucesso uma sala cheia de cadeiras sem intervenção humana em cerca de cinco horas, tornando-se um dos primeiros exemplos de um veículo autónomo.
1980 O Wabot-2 foi construído na Universidade Waseda no Japão, um robô humanóide músico capaz de comunicar com uma pessoa, ler uma partitura musical e tocar músicas de dificuldade média num órgão electrónico.
1981 O Ministério do Comércio Internacional e Indústria do Japão orçou $850 milhões para o projecto de computadores da Quinta Geração. O projeto visava o desenvolvimento de computadores que pudessem levar conversas, traduzir idiomas, interpretar imagens, e raciocinar como seres humanos.
1984 Electric Dreams é lançado, um filme sobre um triângulo amoroso entre um homem, uma mulher e um computador pessoal.
1984 Na reunião anual da AAAI, Roger Schank e Marvin Minsky avisam sobre a chegada do “Inverno AI”, prevendo um estouro imanente da bolha AI (o que aconteceu três anos depois), semelhante à redução do investimento em AI e do financiamento da pesquisa em meados dos anos 70.
1986 Primeiro carro sem condutor, uma carrinha Mercedes-Benz equipada com câmaras e sensores, construída na Universidade Bundeswehr em Munique sob a direcção de Ernst Dickmanns, conduz até 55 mph em ruas vazias.
Outubro 1986 David Rumelhart, Geoffrey Hinton e Ronald Williams publicam “Representações de aprendizagem por erros de retropropagação”, em que descrevem “um novo procedimento de aprendizagem, retropropagação, para redes de unidades semelhantes a neurónios”.”
1987 O vídeo Knowledge Navigator, acompanhando o discurso principal do CEO da Apple John Sculley no Educom, prevê um futuro no qual “aplicações de conhecimento seriam acessadas por agentes inteligentes trabalhando em redes conectadas a quantidades massivas de informação digitalizada”
1988 Judea Pearl publica Probabilistic Reasoning in Intelligent Systems. A sua menção ao Prêmio Turing 2011 diz: “Judea Pearl criou a base representacional e computacional para o processamento de informação sob incerteza. Ele é creditado com a invenção das redes Bayesianas, um formalismo matemático para definir modelos complexos de probabilidade, bem como os principais algoritmos utilizados para inferência nestes modelos. Este trabalho não só revolucionou o campo da inteligência artificial como também se tornou uma ferramenta importante para muitos outros ramos da engenharia e das ciências naturais”
1988 Rollo Carpenter desenvolve o chat-bot Jabberwacky para “simular o chat humano natural de uma forma interessante, divertida e bem-humorada”. É uma tentativa inicial de criar inteligência artificial através da interação humana.
1988 Membros do IBM T.J. Watson Research Center publicam “A statistical approach to language translation”, anunciando a mudança de métodos baseados em regras para métodos probabilísticos de tradução automática, e refletindo uma mudança mais ampla para a “aprendizagem automática” baseada na análise estatística de exemplos conhecidos, não compreensão e “compreensão” da tarefa em questão (o projeto da IBM Candide, traduzindo com sucesso entre inglês e francês, foi baseado em 2.2 milhões de pares de frases, na sua maioria provenientes dos procedimentos bilingues do Parlamento canadiano).
1988 Marvin Minsky e Seymour Papert publicam uma edição expandida do seu livro Perceptrons de 1969. Em “Prologue: A View from 1988” eles escreveram: “Uma razão pela qual o progresso tem sido tão lento neste campo é que pesquisadores não familiarizados com sua história têm continuado a cometer muitos dos mesmos erros que outros cometeram antes deles”.
1989 Yann LeCun e outros pesquisadores da AT&T Bell Labs aplicam com sucesso um algoritmo de retropropagação a uma rede neural multicamadas, reconhecendo códigos ZIP escritos à mão. Dadas as limitações de hardware na época, levou cerca de 3 dias (ainda uma melhoria significativa em relação aos esforços anteriores) para treinar a rede.
1990 Rodney Brooks publica “Elefantes Não Jogam Xadrez”, propondo uma nova abordagem à construção de sistemas inteligentes de IA, especificamente robôs, a partir do zero e com base na interação física contínua com o ambiente: “O mundo é o seu melhor modelo… O truque é senti-lo adequadamente e com frequência suficiente”
1993 Vernor Vinge publica “The Coming Technological Singularity”, no qual prevê que “dentro de trinta anos, teremos os meios tecnológicos para criar inteligência sobre-humana”. Pouco depois, a era humana terminará”
1995 Richard Wallace desenvolve o chatbot A.L.I.C.E (Artificial Linguistic Internet Computer Entity), inspirado no programa ELIZA de Joseph Weizenbaum, mas com a adição de amostras de dados de linguagem natural em uma escala sem precedentes, possibilitada pelo advento da Web.
1997 Set Hochreiter e Jürgen Schmidhuber propõem Long Short-Term Memory (LSTM), um tipo de rede neural recorrente usada hoje em dia no reconhecimento da caligrafia e da fala.
1997 Deep Blue torna-se o primeiro programa de xadrez de computador a vencer um campeão mundial de xadrez reinante.
1998 Dave Hampton e Caleb Chung criam Furby, o primeiro robô doméstico ou de estimação.
1998 Yann LeCun, Yoshua Bengio e outros publicam artigos sobre a aplicação de redes neurais no reconhecimento da caligrafia e na optimização da retropropagação.
2000 MIT’s Cynthia Breazeal desenvolve o Kismet, um robô que poderia reconhecer e simular emoções.
2000 O robô ASIMO da Honda, um robô humanóide artificialmente inteligente, é capaz de andar tão rápido como um humano, entregando bandejas aos clientes num ambiente de restaurante.
2001 A.I. Artificial Intelligence é lançado, um filme de Steven Spielberg sobre David, um andróide infantil exclusivamente programado com a capacidade de amar.
2004 O primeiro DARPA Grand Challenge, um concurso de prémios para veículos autónomos, é realizado no Deserto do Mojave. Nenhum dos veículos autônomos terminou o percurso de 150 milhas.
2006 Oren Etzioni, Michele Banko, e Michael Cafarella coin o termo “leitura mecânica”, definindo-o como uma “compreensão autônoma de texto” inerentemente sem supervisão.”
2006 Geoffrey Hinton publica “Learning Multiple Layers of Representation”, resumindo as ideias que levaram a “redes neurais multicamadas que contêm conexões de cima para baixo e treinando-as para gerar dados sensoriais em vez de classificá-los”, ou seja, as novas abordagens ao aprendizado profundo.
2007 Fei Fei Li e colegas da Universidade de Princeton começam a montar a ImageNet, uma grande base de dados de imagens anotadas projetada para auxiliar na pesquisa de software de reconhecimento visual de objetos.
2009 Rajat Raina, Anand Madhavan e Andrew Ng publicam “Large-scale Deep Unsupervised Learning using Graphics Processors”, argumentando que “os processadores gráficos modernos ultrapassam de longe as capacidades computacionais das CPUs de múltiplos núcleos, e têm o potencial de revolucionar a aplicabilidade dos métodos de aprendizagem profunda não supervisionada”.
2009 O Google começa a desenvolver, em segredo, um carro sem condutor. Em 2014, tornou-se o primeiro a passar, em Nevada, um teste de auto-condução do estado americano.
2009 Cientistas informáticos no Laboratório de Informação Inteligente da Northwestern University desenvolvem o Stats Monkey, um programa que escreve histórias de desporto sem intervenção humana.
2010 Lançamento do Desafio de Reconhecimento Visual em Grande Escala ImageNet (ILSVCR), uma competição anual de reconhecimento de objectos AI.
2011 Uma rede neural convolucional ganha a competição de reconhecimento de sinais de tráfego alemão com 99,46% de precisão (vs. humanos com 99,22%).
2011 Watson, uma pergunta de linguagem natural que responde ao computador, compete no Jeopardy! e derrota dois antigos campeões.
2011 Pesquisadores do IDSIA na Suíça relatam uma taxa de erro de 0,27% no reconhecimento da caligrafia usando redes neurais convolucionais, uma melhoria significativa em relação ao 0.35%-0,40% de taxa de erro em anos anteriores.
Junho 2012 Jeff Dean e Andrew Ng relatam uma experiência na qual eles mostraram uma rede neural muito grande 10 milhões de imagens não rotuladas aleatoriamente tiradas de vídeos do YouTube, e “para nosso divertimento, um de nossos neurônios artificiais aprendeu a responder fortemente a fotos de… gatos”.”
Outubro 2012 Uma rede neural convolucional projetada por pesquisadores da Universidade de Toronto atinge uma taxa de erro de apenas 16% no Desafio de Reconhecimento Visual em Grande Escala da ImageNet, uma melhoria significativa sobre a taxa de erro de 25% alcançada pela melhor entrada do ano anterior.
Março 2016 O AlphaGo do Google DeepMind derrota o campeão Lee Sedol.
A Web (especialmente a Wikipedia) é uma grande fonte para a história da inteligência artificial. Outras fontes importantes incluem Nils Nilsson, The Quest for Artificial Intelligence (A Busca pela Inteligência Artificial): A History of Ideas and Achievements; Stuart Russell e Peter Norvig, Inteligência Artificial: A Modern Approach; Pedro Domingos, The Master Algorithm: Como a Busca pela Máquina Última de Aprendizagem Remodelará Nosso Mundo; e Inteligência Artificial e Vida em 2030. Por favor comente sobre omissões inadvertidas e imprecisões.
Veja também A Very Short History of Data Science, A Very Short History of Big Data, and A Very Short History of Information Technology (IT).