Es heißt Künstliche Intelligenz – aber
was ist Intelligenz? Will Knight Business05.19.2020 06:00 AM Es heißt Künstliche Intelligenz – aber was
ist Intelligenz? Wir haben Maschinen gebaut, die unglaubliche
Leistungen vollbringen können, aber trotzdem haben sie nichts auf einem
Baby.
Elizabeth Spelke, eine Die
Kognitionspsychologin in Harvard hat ihre Karriere damit verbracht, das
ausgefeilteste Lernsystem der Welt zu testen – den Geist eines Babys.
Gurgelnde Säuglinge scheinen wie kein Match
für künstliche Intelligenz. Sie sind schrecklich bei der Beschriftung
von Bildern, hoffnungslos im Mining-Text, und schrecklich bei
Videospielen. Dann wieder können Babys Dinge tun, die außerhalb der
Reichweite jeder KI sind. Schon nach wenigen Monaten haben sie begonnen,
die Grundlagen der Sprache zu verstehen, wie die Grammatik. Sie haben
begonnen zu verstehen, wie die physische Welt funktioniert,wie man sich
an unbekannte Situationen anpasst. Doch selbst Experten wie Spelke verstehen
nicht genau, wie Babys – oder Erwachsene – lernen. Diese Lücke deutet
auf ein Rätsel im Herzen der modernen künstlichen Intelligenz hin: Wir
sind uns nicht sicher, was wir anstreben sollen.
Die A.I.-Ausgabe Wie man künstliche Intelligenz etwas gesunden
Menschenverstand lehrt Betrachten Sie eines der beeindruckendsten
Beispiele für KI, AlphaZero, ein Programm, das Brettspiele mit
übermenschlichen Fähigkeiten spielt. Nachdem AlphaZero Tausende von
Spielen mit Hypergeschwindigkeit gegen sich selbst gespielt und von
gewinnenden Positionen gelernt hatte, entdeckte AlphaZero unabhängig
voneinander mehrere berühmte Schachstrategien und erfand sogar neue. Es
scheint sicherlich wie eine Maschine, die menschliche kognitive
Fähigkeiten in den Schatten stellt. Aber AlphaZero muss Millionen mehr
Spiele als eine Person während des Trainings spielen, um ein Spiel zu
lernen. Am bezeichnendsten ist, dass es nicht das nehmen kann, was es
aus dem Spiel gelernt hat, und es auf einen anderen Bereich anwenden
kann. Für einige Mitglieder des KI-Priestertums
erfordert dies einen neuen Ansatz. "Was die menschliche Intelligenz
besonders macht, ist ihre Anpassungsfähigkeit – ihre Fähigkeit, sich auf
nie dagewesene Situationen zu verallgemeinern", sagt Francois Chollet,
ein bekannter KI-Ingenieur und Schöpfer von Keras, einem weit
verbreiteten Rahmen für Deep Learning. In einem Forschungspapier vom
November argumentierte er, dass es fehlgeleitet sei, die
Maschinenintelligenz nur nach ihren Fähigkeiten bei bestimmten Aufgaben
zu messen. "Menschen fangen nicht mit Fähigkeiten an; sie beginnen mit
einer breiten Fähigkeit, neue Fähigkeiten zu erwerben", sagt er. "Was
ein starker menschlicher Schachspieler demonstriert, ist nicht die
Fähigkeit, Schach an sich zu spielen, sondern das Potenzial, jede
Aufgabe einer ähnlichen Schwierigkeit zu erwerben. Das ist eine ganz
andere Fähigkeit." Chollet stellte eine Reihe von Problemen dar,
die entwickelt wurden, um die Fähigkeit eines KI-Programms zu testen,
auf eine allgemeinere Art und Weise zu lernen. Für jedes Problem müssen
farbige Quadrate auf einem Raster basierend auf einigen früheren
Beispielen anzuordnen werden. Es ist nicht schwer für eine Person. Aber
moderne Machine-Learning-Programme – die auf riesige
Datenmengentrainiert sind – können nicht aus so wenigen Beispielen
lernen. Ende April hatten sich mehr als 650 Teams angemeldet, um die
Herausforderung anzugehen. die besten KI-Systeme wurden zu etwa 12
Prozent korrekt. Ein selbstfahrendes Auto kann nicht vom
gesunden Menschenverstand verspüren, was passieren wird, wenn ein
Lastwagen seine Ladung verschüttet. Es ist noch nicht klar, wie Menschen diese
Probleme lösen, aber Spelkes Arbeit bietet ein paar Hinweise. Zum einen
deutet es darauf hin, dass Menschen mit einer angeborenen Fähigkeit
geboren werden, bestimmte Dinge schnell zu lernen, wie zum Teil, was ein
Lächeln bedeutet oder was passiert, wenn man etwas fallen lässt. Es
deutet auch darauf hin, dass wir viel voneinander lernen. Ein kürzlich
durchgeführtes Experiment zeigte, dass 3-Monats-Jährige verwirrt
erscheinen, wenn jemand einen Ball auf ineffiziente Weise schnappt, was
darauf hindeutet, dass sie bereits zu schätzen wissen, dass Menschen
Veränderungen in ihrer Umgebung verursachen. Selbst die
anspruchsvollsten und leistungsstärksten KI-Systeme auf dem Markt können
solche Konzepte nicht erfassen. Ein selbstfahrendes Autozum Beispiel
kann nicht vom gesunden Menschenverstand ahnen, was passiert, wenn ein
Lkw seine Ladung verschüttet. Keep Reading
Das Neueste über künstliche Intelligenz, vom
maschinellen Lernen bis zum Computer Vision und mehr Josh Tenenbaum,
Professor am ZENTRUM für Gehirne, Köpfe & Maschinen des MIT, arbeitet
eng mit Spelke zusammen und nutzt Erkenntnisse aus der
Kognitionswissenschaft als Inspiration für seine Programme. Er sagt,
dass ein Großteil der modernen KI das große Ganze vermisst und es mit
einer viktorianischen Satire über eine zweidimensionale Welt vergleicht,
die von einfachen geometrischen Menschen bewohnt wird. "Wir erforschen
Flatland– nur einige Dimensionen der grundlegenden Intelligenz", sagt
er. Tenenbaum glaubt, dass KI-Programme, so wie die Evolution dem
menschlichen Gehirn bestimmte Fähigkeiten gegeben hat, ein grundlegendes
Verständnis von Physik und Psychologie benötigen, um Wissen so effizient
wie ein Baby zu erwerben und zu nutzen. Und um dieses Wissen auf neue
Situationen anzuwenden, sagt er, müssen sie auf neue Weise lernen – zum
Beispiel, indem sie kausale Schlussfolgerungen ziehen, anstatt einfach
Muster zu finden. "Irgendwann – wissen Sie, wenn Sie intelligent sind –
merken Sie vielleicht, dass es noch etwas anderes gibt", sagt er.