Von reaktiven Robotern zu empfindungsfähigen Maschinen: Die 4 Arten von KI

Pin
Send
Share
Send

Die gemeinsame und wiederkehrende Ansicht der neuesten Durchbrüche in der Forschung mit künstlicher Intelligenz ist, dass empfindungsfähige und intelligente Maschinen gerade am Horizont stehen. Maschinen verstehen verbale Befehle, unterscheiden Bilder, fahren Autos und spielen besser als wir. Wie lange kann es noch dauern, bis sie unter uns gehen?

Der neue Bericht des Weißen Hauses über künstliche Intelligenz sieht diesen Traum angemessen skeptisch. Es heißt, dass in den nächsten 20 Jahren wahrscheinlich keine Maschinen "eine breit anwendbare Intelligenz aufweisen werden, die mit der des Menschen vergleichbar ist oder diese übertrifft", obwohl in den kommenden Jahren "Maschinen die menschliche Leistung bei mehr erreichen und übertreffen werden" und mehr Aufgaben. " Die Annahmen darüber, wie sich diese Fähigkeiten entwickeln werden, haben jedoch einige wichtige Punkte verfehlt.

Als KI-Forscher gebe ich zu, dass es schön war, mein eigenes Fachgebiet auf der höchsten Ebene der amerikanischen Regierung hervorzuheben, aber der Bericht konzentrierte sich fast ausschließlich auf das, was ich "die langweilige Art von KI" nenne. In einem halben Satz wurde mein Zweig der KI-Forschung entlassen, wie Evolution dazu beitragen kann, sich ständig verbessernde KI-Systeme zu entwickeln, und wie Computermodelle uns helfen können, zu verstehen, wie sich unsere menschliche Intelligenz entwickelt hat.

Der Bericht konzentriert sich auf sogenannte Mainstream-KI-Tools: maschinelles Lernen und tiefes Lernen. Dies sind die Arten von Technologien, die "Jeopardy!" Nun, und schlagen Sie menschliche Go-Meister beim kompliziertesten Spiel, das jemals erfunden wurde. Diese aktuellen intelligenten Systeme sind in der Lage, große Datenmengen zu verarbeiten und komplexe Berechnungen sehr schnell durchzuführen. Es fehlt ihnen jedoch ein Element, das der Schlüssel zum Aufbau der empfindungsfähigen Maschinen sein wird, die wir uns in Zukunft vorstellen.

Wir müssen mehr tun, als Maschinen das Lernen beizubringen. Wir müssen die Grenzen überwinden, die die vier verschiedenen Arten künstlicher Intelligenz definieren, die Barrieren, die Maschinen von uns trennen - und uns von ihnen.

Typ I AI: Reaktive Maschinen

Die grundlegendsten Arten von KI-Systemen sind rein reaktiv und können weder Erinnerungen bilden noch frühere Erfahrungen nutzen, um aktuelle Entscheidungen zu treffen. Deep Blue, der schachspielende Supercomputer von IBM, der Ende der neunziger Jahre den internationalen Großmeister Garry Kasparov besiegte, ist das perfekte Beispiel für diesen Maschinentyp.

Deep Blue kann die Figuren auf einem Schachbrett identifizieren und wissen, wie sich jede bewegt. Es kann Vorhersagen darüber treffen, welche Bewegungen für es und seinen Gegner als nächstes kommen könnten. Und es kann aus den Möglichkeiten die optimalsten Züge auswählen.

Aber es gibt weder ein Konzept der Vergangenheit noch eine Erinnerung an das, was zuvor passiert ist. Abgesehen von einer selten verwendeten schachspezifischen Regel gegen das dreimalige Wiederholen desselben Zuges ignoriert Deep Blue alles vor dem gegenwärtigen Moment. Alles, was es tut, ist, sich die Figuren auf dem Schachbrett anzusehen, wie es gerade steht, und aus möglichen nächsten Zügen auszuwählen.

Diese Art von Intelligenz beinhaltet, dass der Computer die Welt direkt wahrnimmt und auf das reagiert, was er sieht. Es beruht nicht auf einem internen Konzept der Welt. In einem wegweisenden Artikel argumentierte der KI-Forscher Rodney Brooks, dass wir nur Maschinen wie diese bauen sollten. Sein Hauptgrund war, dass die Menschen nicht sehr gut darin sind, genaue simulierte Welten für Computer zu programmieren, was in der KI-Wissenschaft als "Repräsentation" der Welt bezeichnet wird.

Die gegenwärtigen intelligenten Maschinen, über die wir staunen, haben entweder kein solches Weltbild oder ein sehr begrenztes und spezialisiertes für ihre besonderen Aufgaben. Die Innovation im Design von Deep Blue bestand nicht darin, die Auswahl möglicher Filme, die der Computer in Betracht zog, zu erweitern. Vielmehr haben die Entwickler einen Weg gefunden, ihre Sichtweise einzugrenzen und einige potenzielle zukünftige Schritte einzustellen, basierend auf der Bewertung ihres Ergebnisses. Ohne diese Fähigkeit hätte Deep Blue ein noch leistungsfähigerer Computer sein müssen, um Kasparov tatsächlich zu schlagen.

In ähnlicher Weise kann Googles AlphaGo, das die besten menschlichen Go-Experten geschlagen hat, auch nicht alle potenziellen zukünftigen Schritte bewerten. Die Analysemethode ist ausgefeilter als die von Deep Blue und verwendet ein neuronales Netzwerk, um Spielentwicklungen zu bewerten.

Diese Methoden verbessern die Fähigkeit von KI-Systemen, bestimmte Spiele besser zu spielen, können jedoch nicht einfach geändert oder auf andere Situationen angewendet werden. Diese computergestützten Vorstellungen haben kein Konzept für die weitere Welt - das heißt, sie können nicht über die spezifischen Aufgaben hinaus funktionieren, die ihnen zugewiesen wurden, und lassen sich leicht täuschen.

Sie können nicht interaktiv an der Welt teilnehmen, wie wir uns KI-Systeme eines Tages vorstellen. Stattdessen verhalten sich diese Maschinen jedes Mal genauso, wenn sie auf dieselbe Situation stoßen. Dies kann sehr gut sein, um sicherzustellen, dass ein KI-System vertrauenswürdig ist: Sie möchten, dass Ihr autonomes Auto ein zuverlässiger Fahrer ist. Aber es ist schlecht, wenn wir wollen, dass Maschinen wirklich mit der Welt in Kontakt treten und auf sie reagieren. Diese einfachsten KI-Systeme werden niemals gelangweilt, interessiert oder traurig sein.

Typ II AI: Begrenzter Speicher

Diese Klasse vom Typ II enthält Maschinen, die in die Vergangenheit schauen können. Selbstfahrende Autos machen bereits einen Teil davon. Zum Beispiel beobachten sie die Geschwindigkeit und Richtung anderer Autos. Dies kann nicht in einem einzigen Moment geschehen, sondern erfordert die Identifizierung bestimmter Objekte und deren Überwachung im Laufe der Zeit.

Diese Beobachtungen werden zu den vorprogrammierten Weltdarstellungen der selbstfahrenden Autos hinzugefügt, zu denen auch Fahrspurmarkierungen, Ampeln und andere wichtige Elemente wie Kurven auf der Straße gehören. Sie sind enthalten, wenn das Auto entscheidet, wann die Spur gewechselt werden soll, um zu vermeiden, dass ein anderer Fahrer abgeschnitten oder von einem nahe gelegenen Auto angefahren wird.

Diese einfachen Informationen über die Vergangenheit sind jedoch nur vorübergehend. Sie werden nicht als Teil der Erfahrungsbibliothek des Autos gespeichert, aus der es lernen kann, wie menschliche Fahrer über Jahre hinweg hinter dem Lenkrad Erfahrungen sammeln.

Wie können wir also KI-Systeme bauen, die vollständige Darstellungen erstellen, sich an ihre Erfahrungen erinnern und lernen, mit neuen Situationen umzugehen? Brooks hatte Recht, dass es sehr schwierig ist, dies zu tun. Meine eigene Forschung zu Methoden, die von der darwinistischen Evolution inspiriert sind, kann beginnen, menschliche Mängel auszugleichen, indem die Maschinen ihre eigenen Darstellungen erstellen.

Typ III AI: Theorie des Geistes

Wir könnten hier aufhören und diesen Punkt die wichtige Kluft zwischen den Maschinen, die wir haben, und den Maschinen, die wir in Zukunft bauen werden, nennen. Es ist jedoch besser, genauer zu diskutieren, welche Arten von Darstellungen Maschinen bilden müssen und worum es geht.

Maschinen der nächsten, fortgeschritteneren Klasse bilden nicht nur Darstellungen über die Welt, sondern auch über andere Agenten oder Entitäten in der Welt. In der Psychologie wird dies "Theorie des Geistes" genannt - das Verständnis, dass Menschen, Kreaturen und Objekte auf der Welt Gedanken und Emotionen haben können, die ihr eigenes Verhalten beeinflussen.

Dies ist entscheidend dafür, wie wir Menschen Gesellschaften gegründet haben, weil sie uns soziale Interaktionen ermöglichten. Ohne die Motive und Absichten des anderen zu verstehen und ohne zu berücksichtigen, was jemand anderes über mich oder die Umwelt weiß, ist eine Zusammenarbeit im besten Fall schwierig, im schlimmsten Fall unmöglich.

Wenn KI-Systeme tatsächlich jemals unter uns laufen sollen, müssen sie verstehen können, dass jeder von uns Gedanken, Gefühle und Erwartungen hat, wie wir behandelt werden. Und sie müssen ihr Verhalten entsprechend anpassen.

Typ IV AI: Selbstbewusstsein

Der letzte Schritt der KI-Entwicklung besteht darin, Systeme zu erstellen, die Darstellungen über sich selbst bilden können. Letztendlich müssen wir KI-Forscher nicht nur das Bewusstsein verstehen, sondern auch Maschinen bauen, die es haben.

Dies ist in gewissem Sinne eine Erweiterung der "Theorie des Geistes", die künstliche Intelligenzen vom Typ III besitzen. Bewusstsein wird aus einem bestimmten Grund auch "Selbstbewusstsein" genannt. ("Ich will diesen Gegenstand" ist eine ganz andere Aussage als "Ich weiß, dass ich diesen Gegenstand will".) Bewusste Wesen sind sich ihrer selbst bewusst, kennen ihre inneren Zustände und können Gefühle anderer vorhersagen. Wir gehen davon aus, dass jemand, der im Verkehr hinter uns hupt, wütend oder ungeduldig ist, denn so fühlen wir uns, wenn wir andere anhupen. Ohne eine Theorie des Geistes könnten wir solche Schlussfolgerungen nicht ziehen.

Während wir wahrscheinlich weit davon entfernt sind, selbstbewusste Maschinen zu entwickeln, sollten wir uns darauf konzentrieren, das Gedächtnis, das Lernen und die Fähigkeit, Entscheidungen auf vergangene Erfahrungen zu stützen, zu verstehen. Dies ist ein wichtiger Schritt, um die menschliche Intelligenz allein zu verstehen. Und es ist entscheidend, wenn wir Maschinen entwerfen oder weiterentwickeln möchten, die mehr als außergewöhnlich darin sind, das zu klassifizieren, was sie vor sich sehen.

Arend Hintze, Assistenzprofessor für Integrative Biologie & Informatik und Ingenieurwesen, Michigan State University

Pin
Send
Share
Send