Eine sehr kurze Geschichte der künstlichen Intelligenz (KI)

, Author

1308 Der katalanische Dichter und Theologe Ramon Llull veröffentlicht Ars generalis ultima (Die ultimative allgemeine Kunst) und perfektioniert damit seine Methode, mit mechanischen Mitteln auf Papier neues Wissen aus Begriffskombinationen zu schaffen.

1666 Der Mathematiker und Philosoph Gottfried Leibniz veröffentlicht die Dissertatio de arte combinatoria (Über die kombinatorische Kunst), in der er im Anschluss an Ramon Llull ein Alphabet des menschlichen Denkens vorschlägt und argumentiert, dass alle Ideen nichts anderes sind als Kombinationen aus einer relativ kleinen Anzahl einfacher Begriffe.

1726 Jonathan Swift veröffentlicht Gullivers Reisen, die eine Beschreibung der Engine, einer Maschine auf der Insel Laputa (und eine Parodie auf Llulls Ideen), enthalten: „ein Projekt zur Verbesserung des spekulativen Wissens durch praktische und mechanische Operationen“. Mit Hilfe dieser „Vorrichtung“ kann „die unwissendste Person zu einem angemessenen Preis und mit ein wenig körperlicher Arbeit Bücher in Philosophie, Poesie, Politik, Recht, Mathematik und Theologie schreiben, ohne die geringste Hilfe von Genie oder Studium.“

1763 Thomas Bayes entwickelt einen Rahmen für Schlussfolgerungen über die Wahrscheinlichkeit von Ereignissen. Die Bayes’sche Inferenz wird zu einem führenden Ansatz beim maschinellen Lernen.

1854 George Boole argumentiert, dass logisches Denken systematisch auf die gleiche Weise durchgeführt werden kann wie das Lösen eines Gleichungssystems.

1898 Auf einer Elektroausstellung im kürzlich fertiggestellten Madison Square Garden führt Nikola Tesla das erste funkgesteuerte Schiff der Welt vor. Der spanische Ingenieur Leonardo Torres y Quevedo demonstriert die erste Schachspielmaschine, die in der Lage ist, ohne menschliches Zutun ein Endspiel mit König und Turm gegen König zu spielen.

1921 Der tschechische Schriftsteller Karel Čapek führt das Wort „Roboter“ in seinem Stück R.U.R. (Rossum’s Universal Robots) ein. Das Wort „Roboter“ kommt von dem Wort „robota“ (Arbeit).

1925 Houdina Radio Control bringt ein funkgesteuertes fahrerloses Auto auf den Markt, das auf den Straßen von New York City fährt.

1927 Der Science-Fiction-Film Metropolis wird veröffentlicht. Er zeigt ein Roboter-Double eines Bauernmädchens, Maria, das im Berlin des Jahres 2026 Chaos anrichtet – es war der erste Roboter, der im Film dargestellt wurde und den Art-Déco-Look von C-3PO in Star Wars inspirierte.

1929 Makoto Nishimura entwirft Gakutensoku, japanisch für „Lernen von den Gesetzen der Natur“, den ersten in Japan gebauten Roboter. Er konnte seinen Gesichtsausdruck verändern und seinen Kopf und seine Hände über einen Luftdruckmechanismus bewegen.

1943 veröffentlichen Warren S. McCulloch und Walter Pitts „A Logical Calculus of the Ideas Immanent in Nervous Activity“ im Bulletin of Mathematical Biophysics. Dieser einflussreiche Aufsatz, in dem sie Netzwerke idealisierter und vereinfachter künstlicher „Neuronen“ erörtern und wie diese einfache logische Funktionen ausführen könnten, wird zur Inspiration für computergestützte „neuronale Netze“ (und später „Deep Learning“) und deren populäre Beschreibung als „Nachahmung des Gehirns“.

1949 Edmund Berkeley veröffentlicht Giant Brains: Or Machines That Think, in dem er schreibt: „In letzter Zeit gab es viele Nachrichten über seltsame riesige Maschinen, die Informationen mit enormer Geschwindigkeit und Geschicklichkeit verarbeiten können.“…. Diese Maschinen ähneln dem, was ein Gehirn wäre, wenn es aus Hardware und Draht statt aus Fleisch und Nerven bestünde… Eine Maschine kann Informationen verarbeiten; sie kann berechnen, schlussfolgern und wählen; sie kann vernünftige Operationen mit Informationen durchführen. Eine Maschine kann also denken.“

1949 veröffentlicht Donald Hebb Organization of Behavior: A Neuropsychological Theory“, in dem er eine Theorie des Lernens vorschlägt, die auf Vermutungen über neuronale Netze und die Fähigkeit von Synapsen, sich im Laufe der Zeit zu verstärken oder abzuschwächen, beruht.

1950 Claude Shannons „Programming a Computer for Playing Chess“ ist der erste veröffentlichte Artikel über die Entwicklung eines schachspielenden Computerprogramms.

1950 Alan Turing veröffentlicht „Computing Machinery and Intelligence“, in dem er das „Nachahmungsspiel“ vorschlägt, das später als „Turing-Test“ bekannt werden wird.“

1951 Marvin Minsky und Dean Edmunds bauen SNARC (Stochastic Neural Analog Reinforcement Calculator), das erste künstliche neuronale Netzwerk, das 3000 Vakuumröhren verwendet, um ein Netzwerk von 40 Neuronen zu simulieren.

1952 Arthur Samuel entwickelt das erste Computerprogramm zum Damespiel und das erste Computerprogramm, das selbständig lernt.

August 31, 1955 Der Begriff „künstliche Intelligenz“ wird in einem Vorschlag für eine „zweimonatige Studie über künstliche Intelligenz mit 10 Personen“ von John McCarthy (Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM) und Claude Shannon (Bell Telephone Laboratories) geprägt. Der Workshop, der ein Jahr später, im Juli und August 1956, stattfand, gilt allgemein als die offizielle Geburtsstunde des neuen Fachgebiets.

Dezember 1955 Herbert Simon und Allen Newell entwickeln den Logic Theorist, das erste Programm für künstliche Intelligenz, das schließlich 38 der ersten 52 Theoreme in Whiteheads und Russells Principia Mathematica beweisen sollte.

1957 Frank Rosenblatt entwickelt das Perceptron, ein frühes künstliches neuronales Netz, das die Mustererkennung auf der Grundlage eines zweischichtigen Computerlernnetzes ermöglicht. Die New York Times bezeichnete das Perceptron als „den Embryo eines elektronischen Computers, von dem man erwartet, dass er gehen, sprechen, sehen, schreiben, sich selbst reproduzieren und sich seiner Existenz bewusst sein wird.“ Der New Yorker nannte es eine „bemerkenswerte Maschine…, die zu etwas fähig ist, was dem Denken gleichkommt.“

1958 John McCarthy entwickelt die Programmiersprache Lisp, die zur populärsten Programmiersprache in der Forschung über künstliche Intelligenz wird.

1959 Arthur Samuel prägt den Begriff „maschinelles Lernen“ und berichtet über die Programmierung eines Computers, „der lernt, eine bessere Partie Dame zu spielen als derjenige, der das Programm geschrieben hat.“

1959 Oliver Selfridge veröffentlicht „Pandemonium: A paradigm for learning“ (Ein Paradigma für das Lernen) in den Proceedings of the Symposium on Mechanization of Thought Processes, in dem er ein Modell für einen Prozess beschreibt, durch den Computer Muster erkennen könnten, die nicht im Voraus spezifiziert wurden.

1959 John McCarthy veröffentlicht „Programs with Common Sense“ (Programme mit gesundem Menschenverstand) in den Proceedings of the Symposium on Mechanization of Thought Processes, in dem er den Advice Taker beschreibt, ein Programm zum Lösen von Problemen durch Manipulation von Sätzen in formalen Sprachen mit dem letztendlichen Ziel, Programme zu entwickeln, „die aus ihren Erfahrungen so effektiv lernen wie Menschen.“

1961 Der erste Industrieroboter, Unimate, nimmt seine Arbeit an einem Fließband in einem Werk von General Motors in New Jersey auf.

1961 James Slagle entwickelt SAINT (Symbolic Automatic INTegrator), ein heuristisches Programm, das symbolische Integrationsprobleme in der Studienanfängerrechnung löst.

1964 Daniel Bobrow schließt seine MIT-Dissertation mit dem Titel „Natural Language Input for a Computer Problem Solving System“ ab und entwickelt STUDENT, ein Computerprogramm, das natürliche Sprache versteht.

1965 Herbert Simon sagt voraus, dass „Maschinen innerhalb von zwanzig Jahren in der Lage sein werden, jede Arbeit zu verrichten, die ein Mensch verrichten kann.“

1965 Hubert Dreyfus veröffentlicht „Alchemie und KI“, in dem er argumentiert, dass der Verstand nicht wie ein Computer ist und dass es Grenzen gibt, über die hinaus KI keine Fortschritte machen wird.

1965 I.J. Good schreibt in „Speculations Concerning the First Ultraintelligent Machine“ (Spekulationen über die erste ultraintelligente Maschine), dass „die erste ultraintelligente Maschine die letzte Erfindung ist, die der Mensch jemals zu machen braucht, vorausgesetzt, die Maschine ist gefügig genug, um uns zu sagen, wie wir sie unter Kontrolle halten können.“

1965 Joseph Weizenbaum entwickelt ELIZA, ein interaktives Programm, das einen Dialog in englischer Sprache zu einem beliebigen Thema führt. Weizenbaum, der die Oberflächlichkeit der Kommunikation zwischen Mensch und Maschine demonstrieren wollte, war überrascht von der Zahl der Menschen, die dem Computerprogramm menschenähnliche Gefühle zuschrieben.

1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg und Carl Djerassi beginnen an der Stanford University mit der Arbeit an DENDRAL. Das erste Expertensystem automatisierte den Entscheidungsfindungsprozess und das Problemlösungsverhalten von organischen Chemikern mit dem allgemeinen Ziel, die Hypothesenbildung zu studieren und Modelle der empirischen Induktion in der Wissenschaft zu konstruieren.

1966 Shakey der Roboter ist der erste mobile Allzweckroboter, der in der Lage ist, über seine eigenen Handlungen nachzudenken. In einem Artikel des Life-Magazins von 1970 über diesen „ersten elektronischen Menschen“ wird Marvin Minsky mit den Worten zitiert: „Mit Sicherheit“: „In drei bis acht Jahren werden wir eine Maschine mit der allgemeinen Intelligenz eines durchschnittlichen Menschen haben.“

1968 Der Film 2001: Odyssee im Weltraum kommt in die Kinos, in dem Hal, ein empfindungsfähiger Computer, die Hauptrolle spielt.

1968 Terry Winograd entwickelt SHRDLU, ein frühes Computerprogramm zum Verstehen natürlicher Sprache.

1969 Arthur Bryson und Yu-Chi Ho beschreiben Backpropagation als mehrstufige dynamische Systemoptimierungsmethode. Dieser Lernalgorithmus für mehrschichtige künstliche neuronale Netze hat wesentlich zum Erfolg des Deep Learning in den 2000er und 2010er Jahren beigetragen, sobald die Rechenleistung ausreichend fortgeschritten ist, um das Training großer Netzwerke zu ermöglichen.

1969 Marvin Minsky und Seymour Papert veröffentlichen Perceptrons: An Introduction to Computational Geometry, in dem sie die Grenzen einfacher neuronaler Netze aufzeigen. In einer erweiterten Ausgabe, die 1988 veröffentlicht wurde, reagierten sie auf die Behauptung, dass ihre Schlussfolgerungen aus dem Jahr 1969 die Finanzierung der Forschung im Bereich der neuronalen Netze erheblich reduziert hätten: „Unsere Version ist, dass der Fortschritt bereits praktisch zum Stillstand gekommen war, weil es an adäquaten Basistheorien fehlte… Mitte der 1960er Jahre gab es eine Vielzahl von Experimenten mit Perceptrons, aber niemand war in der Lage zu erklären, warum sie in der Lage waren, bestimmte Arten von Mustern zu erkennen und andere nicht.“

1970 Der erste anthropomorphe Roboter, der WABOT-1, wird an der Waseda-Universität in Japan gebaut. Er bestand aus einem System zur Steuerung der Gliedmaßen, einem Sichtsystem und einem Konversationssystem.

1972 MYCIN, ein frühes Expertensystem zur Identifizierung von Bakterien, die schwere Infektionen verursachen, und zur Empfehlung von Antibiotika, wird an der Stanford University entwickelt.

1973 James Lighthill berichtet dem British Science Research Council über den Stand der Forschung auf dem Gebiet der künstlichen Intelligenz und kommt zu dem Schluss, dass „in keinem Teil des Feldes die bisher gemachten Entdeckungen die damals versprochenen großen Auswirkungen hatten“, was zu einer drastischen Reduzierung der staatlichen Unterstützung für die KI-Forschung führt.

1976 Der Informatiker Raj Reddy veröffentlicht „Speech Recognition by Machine: A Review“ in den Proceedings of the IEEE, in dem er die frühen Arbeiten zur Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) zusammenfasst.

1978 An der Carnegie Mellon University wird das Programm XCON (eXpert CONfigurer) entwickelt, ein regelbasiertes Expertensystem, das bei der Bestellung von VAX-Computern von DEC hilft, indem es die Komponenten automatisch nach den Anforderungen des Kunden auswählt.

1979 Der Stanford Cart durchquert erfolgreich einen mit Stühlen gefüllten Raum ohne menschliches Zutun in etwa fünf Stunden und ist damit eines der ersten Beispiele für ein autonomes Fahrzeug.

1980 An der Waseda University in Japan wird Wabot-2 gebaut, ein musizierender humanoider Roboter, der in der Lage ist, mit einem Menschen zu kommunizieren, eine Partitur zu lesen und mittelschwere Melodien auf einer elektronischen Orgel zu spielen.

1981 Das japanische Ministerium für internationalen Handel und Industrie stellt 850 Millionen Dollar für das Fifth Generation Computer Projekt bereit. Ziel des Projekts ist die Entwicklung von Computern, die Gespräche führen, Sprachen übersetzen, Bilder interpretieren und wie Menschen denken können.

1984 erscheint Electric Dreams, ein Film über eine Dreiecksbeziehung zwischen einem Mann, einer Frau und einem Personal Computer.

1984 Auf der Jahrestagung der AAAI warnen Roger Schank und Marvin Minsky vor dem kommenden „KI-Winter“ und prophezeien ein baldiges Platzen der KI-Blase (was drei Jahre später tatsächlich eintrat), ähnlich dem Rückgang der KI-Investitionen und Forschungsgelder Mitte der 1970er Jahre.

1986 Das erste fahrerlose Auto, ein mit Kameras und Sensoren ausgestatteter Mercedes-Benz Transporter, der an der Universität der Bundeswehr in München unter der Leitung von Ernst Dickmanns gebaut wurde, fährt mit bis zu 55 km/h auf leeren Straßen.

Oktober 1986 David Rumelhart, Geoffrey Hinton und Ronald Williams veröffentlichen „Learning representations by back-propagating errors“, in dem sie „ein neues Lernverfahren, back-propagation, für Netzwerke von neuronenähnlichen Einheiten“ beschreiben.

1987 Das Video „Knowledge Navigator“, das die Grundsatzrede von John Sculley, CEO von Apple, auf der Educom begleitet, stellt sich eine Zukunft vor, in der „Wissensanwendungen von intelligenten Agenten genutzt werden, die über Netzwerke arbeiten, die mit riesigen Mengen an digitalisierten Informationen verbunden sind.“

1988 Judea Pearl veröffentlicht „Probabilistic Reasoning in Intelligent Systems“. In der Begründung für seinen Turing Award 2011 heißt es: „Judea Pearl schuf die Darstellungs- und Berechnungsgrundlage für die Verarbeitung von Informationen unter Unsicherheit. Ihm wird die Erfindung der Bayes’schen Netzwerke zugeschrieben, eines mathematischen Formalismus zur Definition komplexer Wahrscheinlichkeitsmodelle, sowie der wichtigsten Algorithmen, die für die Inferenz in diesen Modellen verwendet werden. Diese Arbeit hat nicht nur den Bereich der künstlichen Intelligenz revolutioniert, sondern wurde auch zu einem wichtigen Werkzeug für viele andere Bereiche der Technik und der Naturwissenschaften.“

1988 Rollo Carpenter entwickelt den Chat-Bot Jabberwacky, um „natürliche menschliche Gespräche auf interessante, unterhaltsame und humorvolle Weise zu simulieren“. Es handelt sich um einen frühen Versuch, künstliche Intelligenz durch menschliche Interaktion zu schaffen.

1988 Mitglieder des IBM T.J. Watson Research Center veröffentlichen „A statistical approach to language translation“ (Ein statistischer Ansatz zur Sprachübersetzung), der den Wechsel von regelbasierten zu probabilistischen Methoden der maschinellen Übersetzung einläutet und eine breitere Verlagerung hin zum „maschinellen Lernen“ widerspiegelt, das auf der statistischen Analyse bekannter Beispiele und nicht auf dem Verstehen und „Verstehen“ der jeweiligen Aufgabe beruht (IBMs Projekt Candide, das erfolgreich zwischen Englisch und Französisch übersetzte, basierte auf 2.(IBMs Projekt Candide, das erfolgreich zwischen Englisch und Französisch übersetzte, basierte auf 2 Millionen Satzpaaren, die größtenteils aus den zweisprachigen Protokollen des kanadischen Parlaments stammten).

1988 veröffentlichen Marvin Minsky und Seymour Papert eine erweiterte Ausgabe ihres 1969 erschienenen Buches Perceptrons. In „Prologue: A View from 1988“ schreiben sie: „Ein Grund, warum der Fortschritt in diesem Bereich so langsam war, ist, dass Forscher, die mit seiner Geschichte nicht vertraut waren, weiterhin viele der gleichen Fehler gemacht haben, die andere vor ihnen gemacht haben.“

1989 Yann LeCun und andere Forscher bei AT&T Bell Labs wenden erfolgreich einen Backpropagation-Algorithmus auf ein mehrschichtiges neuronales Netzwerk an, das handgeschriebene Postleitzahlen erkennt. Angesichts der damaligen Hardware-Beschränkungen dauerte es etwa drei Tage (immer noch eine erhebliche Verbesserung gegenüber früheren Bemühungen), um das Netzwerk zu trainieren.

1990 Rodney Brooks veröffentlicht „Elephants Don’t Play Chess“, in dem er einen neuen Ansatz für die KI vorschlägt – den Aufbau intelligenter Systeme, insbesondere von Robotern, von Grund auf und auf der Grundlage einer ständigen physischen Interaktion mit der Umwelt: „Die Welt ist ihr eigenes bestes Modell… Der Trick besteht darin, sie angemessen und oft genug wahrzunehmen.“

1993 veröffentlicht Vernor Vinge „The Coming Technological Singularity“, in dem er vorhersagt, dass „wir innerhalb von dreißig Jahren die technologischen Mittel haben werden, um übermenschliche Intelligenz zu schaffen.

1995 Richard Wallace entwickelt den Chatbot A.L.I.C.E (Artificial Linguistic Internet Computer Entity), der von Joseph Weizenbaums ELIZA-Programm inspiriert ist, aber durch das Aufkommen des Internets die Sammlung von natürlichsprachlichen Beispieldaten in einem noch nie dagewesenen Umfang ermöglicht.

1997 Sepp Hochreiter und Jürgen Schmidhuber schlagen das Long Short-Term Memory (LSTM) vor, eine Art rekurrentes neuronales Netzwerk, das heute in der Handschriften- und Spracherkennung eingesetzt wird.

1997 Deep Blue wird das erste Computer-Schachprogramm, das einen amtierenden Schachweltmeister besiegt.

1998 Dave Hampton und Caleb Chung entwickeln Furby, den ersten Haushalts- oder Haustierroboter.

1998 Yann LeCun, Yoshua Bengio und andere veröffentlichen Arbeiten über die Anwendung neuronaler Netze auf die Handschrifterkennung und die Optimierung der Backpropagation.

2000 Cynthia Breazeal vom MIT entwickelt Kismet, einen Roboter, der Emotionen erkennen und simulieren kann.

2000 Hondas ASIMO-Roboter, ein künstlich intelligenter humanoider Roboter, ist in der Lage, so schnell wie ein Mensch zu laufen und Kunden in einem Restaurant Tabletts zu bringen.

2001 erscheint A.I. Artificial Intelligence, ein Film von Steven Spielberg über David, einen kindlichen Androiden, der mit der Fähigkeit zu lieben programmiert wurde.

2004 Die erste DARPA Grand Challenge, ein Wettbewerb für autonome Fahrzeuge, findet in der Mojave-Wüste statt. Keines der autonomen Fahrzeuge schafft die 150 Meilen lange Strecke.

2006 Oren Etzioni, Michele Banko und Michael Cafarella prägen den Begriff „maschinelles Lesen“ und definieren ihn als ein von Natur aus unbeaufsichtigtes „autonomes Verstehen von Text“.“

2006 Geoffrey Hinton veröffentlicht „Learning Multiple Layers of Representation“, in dem er die Ideen zusammenfasst, die zu „mehrschichtigen neuronalen Netzen mit Top-Down-Verbindungen geführt haben, die darauf trainiert werden, sensorische Daten zu erzeugen, anstatt sie zu klassifizieren“, d. h.,

2007 beginnen Fei Fei Li und Kollegen an der Princeton University mit dem Aufbau von ImageNet, einer großen Datenbank mit beschrifteten Bildern, die bei der Erforschung von Software zur visuellen Objekterkennung helfen soll.

2009 Rajat Raina, Anand Madhavan und Andrew Ng veröffentlichen „Large-scale Deep Unsupervised Learning using Graphics Processors“ und argumentieren, dass „moderne Grafikprozessoren die Rechenkapazitäten von Multicore-CPUs weit übertreffen und das Potenzial haben, die Anwendbarkeit von Deep Unsupervised Learning-Methoden zu revolutionieren.“

2009 Google beginnt im Geheimen mit der Entwicklung eines fahrerlosen Autos. Im Jahr 2014 bestand es in Nevada als erstes Auto einen Selbstfahrertest im US-Bundesstaat.

2009 Computerwissenschaftler am Intelligent Information Laboratory der Northwestern University entwickeln Stats Monkey, ein Programm, das Sportnachrichten ohne menschliches Zutun schreibt.

2010 Start der ImageNet Large Scale Visual Recognition Challenge (ILSVCR), eines jährlichen KI-Wettbewerbs zur Objekterkennung.

2011 Ein neuronales Faltungsnetzwerk gewinnt den deutschen Wettbewerb zur Verkehrszeichenerkennung mit einer Genauigkeit von 99,46 % (im Vergleich zu Menschen mit 99,22 %).

2011 Watson, ein Computer zur Beantwortung von Fragen zur natürlichen Sprache, tritt bei Jeopardy! an und besiegt zwei frühere Champions.

2011 Forscher am IDSIA in der Schweiz berichten über eine Fehlerquote von 0,27 % bei der Handschrifterkennung mit Hilfe von neuronalen Faltungsnetzwerken, eine deutliche Verbesserung gegenüber den 0.35%-0,40% Fehlerrate in früheren Jahren.

Juni 2012 Jeff Dean und Andrew Ng berichten über ein Experiment, in dem sie einem sehr großen neuronalen Netzwerk 10 Millionen unmarkierte Bilder zeigten, die zufällig aus YouTube-Videos entnommen wurden, und „zu unserer Belustigung lernte eines unserer künstlichen Neuronen, stark auf Bilder von… Katzen zu reagieren.“

Oktober 2012 Ein von Forschern der Universität Toronto entwickeltes Faltungsneuronales Netzwerk erreicht bei der ImageNet Large Scale Visual Recognition Challenge eine Fehlerquote von nur 16 %, eine deutliche Verbesserung gegenüber der Fehlerquote von 25 %, die der beste Teilnehmer im Jahr zuvor erreicht hatte.

März 2016 Google DeepMind’s AlphaGo besiegt den Go-Champion Lee Sedol.

Das Web (insbesondere Wikipedia) ist eine hervorragende Quelle für die Geschichte der künstlichen Intelligenz. Weitere wichtige Quellen sind Nils Nilsson, The Quest for Artificial Intelligence: A History of Ideas and Achievements; Stuart Russell und Peter Norvig, Artificial Intelligence: A Modern Approach; Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World; und Artificial Intelligence and Life in 2030. Bitte kommentieren Sie versehentliche Auslassungen und Ungenauigkeiten.

Siehe auch A Very Short History of Data Science, A Very Short History of Big Data und A Very Short History of Information Technology (IT).

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.