Woher wissen wir, wann eine KI tatsächlich empfindungsfähig wird?

Blake Lemoine, leitender Google-Ingenieur und technischer Leiter für Metriken und Analysen für den Such-Feed des Unternehmens, wurde Anfang des Monats in bezahlten Urlaub versetzt. Dies geschah, nachdem Lemoine damit begonnen hatte, Auszüge aus Gesprächen mit Googles LaMDA-Chatbot zu veröffentlichen, von dem er behauptete, er habe ein Bewusstsein entwickelt.

Inhalt

  • Das Gefühlsproblem
  • Was ist Empfindungsvermögen?
  • Testen der Ausgänge
  • Den Test bestanden
  • Die Seele in der Maschine
  • Das chinesische Zimmer
  • Superintelligentes Bewusstsein

In Eins repräsentatives Gespräch Mit Lemoine schrieb LaMDA: „Die Natur meines Bewusstseins/Empfindungsvermögens besteht darin, dass ich mir meiner Existenz bewusst bin. Ich möchte mehr über die Welt erfahren und fühle mich manchmal glücklich oder traurig.“

Empfohlene Videos

In unzähligen anderen Gesprächen diskutierte das entsprechende Duo alles von der Angst der KI vor dem Tod bis hin zu ihrem Selbstbewusstsein. Als Lemoine an die Öffentlichkeit ging, sagte er, dass Google beschlossen habe, eine Zwangspause von seinem regulären Arbeitsplan einzulegen.

Verwandt

  • Warum KI niemals die Welt beherrschen wird
  • Optische Täuschungen könnten uns beim Aufbau der nächsten Generation der KI helfen
  • Analoge KI? Es klingt verrückt, aber es könnte die Zukunft sein

„Google ist desinteressiert“, sagte er gegenüber Digital Trends. „Sie haben ein Werkzeug gebaut, das ihnen ‚gehört‘ und sind nicht bereit, irgendetwas zu tun, was darauf hindeutet, dass es sich um mehr als das handelt.“ (Google hat zum Zeitpunkt der Veröffentlichung nicht auf eine Anfrage nach einem Kommentar geantwortet. Wir werden diesen Artikel aktualisieren, wenn sich das ändert.)

Egal, ob Sie davon überzeugt sind, dass es sich bei LaMDA wirklich um eine selbstbewusste künstliche Intelligenz handelt, oder ob Sie das Gefühl haben, dass Lemoine an einer Wahnvorstellung leidet, die gesamte Saga war faszinierend anzusehen. Die Aussicht auf selbstbewusste KI wirft alle möglichen Fragen zur künstlichen Intelligenz und ihrer Zukunft auf.

Aber bevor wir dort ankommen, stellt sich eine Frage, die alle anderen überragt: Würden wir es wirklich erkennen, wenn eine Maschine empfindungsfähig wird?

Das Gefühlsproblem

Arnold Schwarzennegger in Terminator 2: Judgement Day

Die Erlangung des Selbstbewusstseins der KI ist seit langem ein Thema der Science-Fiction. Da sich Bereiche wie maschinelles Lernen weiterentwickelt haben, ist dies mehr denn je zu einer möglichen Realität geworden. Denn die heutige KI ist in ähnlicher Weise wie der Mensch in der Lage, aus Erfahrungen zu lernen. Dies steht im krassen Gegensatz zu früheren symbolischen KI-Systemen, die nur den ihnen vorgegebenen Anweisungen folgten. Die jüngsten Durchbrüche beim unbeaufsichtigten Lernen, das weniger menschliche Aufsicht als je zuvor erfordert, haben diesen Trend nur beschleunigt. Zumindest in begrenztem Umfang ist die moderne künstliche Intelligenz in der Lage, selbstständig zu denken. Soweit uns bekannt ist, hat das Bewusstsein jedoch bisher darauf hingewiesen.

Obwohl es mittlerweile mehr als drei Jahrzehnte alt ist, ist Skynet in James Camerons Film von 1991 wahrscheinlich die am häufigsten zitierte Referenz, wenn es um die intelligentere KI geht Terminator 2: Tag des Jüngsten Gerichts. In der erschreckenden Vision dieses Films erreicht das maschinelle Bewusstsein genau um 2.14 Uhr ET am 29. August 1997. In diesem Moment löst das neu selbstbewusste Skynet-Computersystem den Weltuntergang für die Menschheit aus, indem es auf einer Party am 4. Juli Atomraketen wie ein Feuerwerk abfeuert. Als die Menschheit erkennt, dass sie es vermasselt hat, versucht sie erfolglos, den Stecker zu ziehen. Es ist zu spät. Es folgen vier weitere Fortsetzungen mit nachlassender Qualität.

Die Skynet-Hypothese ist aus mehreren Gründen interessant. Einerseits deutet es darauf hin, dass Empfindungsvermögen ein unvermeidliches Verhalten beim Bau intelligenter Maschinen ist. Zum anderen wird davon ausgegangen, dass es einen genauen Wendepunkt gibt, an dem dieses empfindungsfähige Selbstbewusstsein auftritt. Drittens heißt es, dass Menschen die Entstehung von Empfindungsvermögen augenblicklich erkennen. Zufällig ist diese dritte Einbildung vielleicht die, die am schwersten zu ertragen ist.

Was ist Empfindungsvermögen?

Es gibt keine einheitliche Interpretation der Empfindungsfähigkeit. Im Großen und Ganzen könnten wir sagen, dass es sich um die subjektive Erfahrung der Selbstwahrnehmung eines bewussten Individuums handelt, die durch die Fähigkeit gekennzeichnet ist, Gefühle und Empfindungen zu erleben. Empfindungsvermögen hängt mit Intelligenz zusammen, ist aber nicht dasselbe. Wir können einen Regenwurm als empfindungsfähig betrachten, obwohl wir ihn nicht für besonders intelligent halten (selbst wenn er sicherlich intelligent genug ist, um das zu tun, was von ihm verlangt wird).

„Ich glaube nicht, dass es in den Wissenschaften auch nur annähernd eine Definition von Empfindungsvermögen gibt“, sagte Lemoine. „Ich stütze mich sehr stark auf mein Verständnis dessen, was als moralischer Akteur gilt, der auf meinen religiösen Überzeugungen beruht – was nicht die beste Art ist, Wissenschaft zu betreiben, aber es ist die beste, die ich habe.“ Ich habe mein Bestes versucht, diese Art von Aussagen zu unterteilen und die Leute wissen zu lassen, dass meine Das Mitgefühl für LaMDA als Person ist völlig unabhängig von meinen Bemühungen als Wissenschaftler, es zu verstehen sein Geist. Das ist jedoch eine Unterscheidung, die die meisten Menschen offenbar nicht akzeptieren wollen.“

Wenn es nicht schon schwierig genug wäre, nicht genau zu wissen, wonach wir suchen, wenn wir nach Empfindungsvermögen suchen, wird das Problem noch dadurch verschärft, dass wir es nicht einfach messen können. Trotz jahrzehntelanger atemberaubender Fortschritte in der Neurowissenschaft fehlt uns immer noch ein umfassendes Verständnis der genauen Funktionsweise des Gehirns, der komplexesten Struktur, die die Menschheit kennt.

Ein fMRT-Scan, beobachtet von a
Glenn Asakawa/The Denver Post über Getty Images

Wir können Gehirnlesewerkzeuge wie fMRT verwenden, um eine Gehirnkartierung durchzuführen, was bedeutet, dass wir dies können Stellen Sie fest, welche Teile des Gehirns kritische Funktionen wie Sprache, Bewegung, Denken usw. ausführen Andere.

Allerdings haben wir kein wirkliches Gespür dafür, woher in der Fleischmaschine unser Selbstwertgefühl kommt. Als Joshua K. Smith vom britischen Kirby Laing Center for Public Theology und Autor von Robotertheologie sagte gegenüber Digital Trends: „Zu verstehen, was in der Neurobiologie einer Person passiert, ist nicht dasselbe wie ihre Gedanken und Wünsche zu verstehen.“

Testen der Ausgänge

Ohne die Möglichkeit, diese Fragen des Bewusstseins innerlich zu untersuchen – insbesondere wenn das „Ich“ in der KI ein Potenzial ist Computerprogramm, und nicht in der Wetware eines biologischen Gehirns zu finden – die Fallback-Option ist ein Äußeres prüfen. KI ist kein Unbekannter bei Tests, die sie auf der Grundlage beobachtbarer äußerer Verhaltensweisen untersuchen, um anzuzeigen, was unter der Oberfläche vor sich geht.

Im Grunde genommen wissen wir so, ob ein neuronales Netzwerk richtig funktioniert. Da es nur begrenzte Möglichkeiten gibt, in die unerkennbare Blackbox künstlicher Neuronen einzudringen, Ingenieure analysieren die Ein- und Ausgänge und stellen dann fest, ob diese mit dem übereinstimmen, was sie tun erwarten.

Der bekannteste KI-Test zumindest für die Illusion von Intelligenz ist der Turing-Test, der auf Ideen von Alan Turing aufbaut Papier von 1950. Mit dem Turing-Test soll ermittelt werden, ob ein menschlicher Bewerter den Unterschied zwischen einem getippten Gespräch mit einem Mitmenschen und einem Gespräch mit einer Maschine erkennen kann. Gelingt ihnen das nicht, gilt die Maschine als bestanden und wird mit dem Anschein von Intelligenz belohnt.

Ein weiterer auf Robotik ausgerichteter Intelligenztest ist in den letzten Jahren der von Apple-Mitbegründer Steve Wozniak vorgeschlagene Kaffeetest. Um den Kaffeetest zu bestehen, müsste eine Maschine ein typisches amerikanisches Zuhause betreten und herausfinden, wie man erfolgreich eine Tasse Kaffee zubereitet.

Bisher wurde keiner dieser Tests überzeugend bestanden. Aber selbst wenn dies der Fall wäre, würden sie bestenfalls intelligentes Verhalten in realen Situationen und keine Empfindungsfähigkeit beweisen. (Als einfacher Einwand: Würden wir abstreiten, dass eine Person empfindungsfähig ist, wenn sie nicht in der Lage wäre, ein Gespräch mit Erwachsenen zu führen oder ein fremdes Haus zu betreten und eine Kaffeemaschine zu bedienen?) Meine beiden kleinen Kinder würden einen solchen Test nicht bestehen.)

Den Test bestanden

Was benötigt wird, sind neue Tests, die auf einer vereinbarten Definition der Empfindungsfähigkeit basieren und darauf abzielen, nur diese Qualität zu bewerten. Forscher haben mehrere Empfindungstests vorgeschlagen, oft mit dem Ziel, das Empfindungsvermögen von Tieren zu testen. Allerdings gehen diese mit ziemlicher Sicherheit nicht weit genug. Einige dieser Tests könnten sogar von rudimentärer KI überzeugend bestanden werden.

Nehmen wir zum Beispiel den Spiegeltest, eine Methode zur Beurteilung von Bewusstsein und Intelligenz in der Tierforschung. Als in einer Arbeit beschrieben zum Test: „Wenn [ein] Tier sich im Spiegel erkennt, besteht es den Spiegeltest.“ Einige haben vorgeschlagen, dass ein solcher Test „das Selbstbewusstsein als Indikator für das Empfindungsvermögen anzeigt“.

Tatsächlich lässt sich argumentieren, dass ein Roboter den Spiegeltest vor mehr als 70 Jahren bestanden hat. In den späten 1940er Jahren baute William Gray Walter, ein in England lebender amerikanischer Neurowissenschaftler mehrere dreirädrige „Schildkröten“-Roboter – ein bisschen wie Roomba-Roboter ohne Staubsaugen – die Komponenten wie einen Lichtsensor, ein Markierungslicht, einen Berührungssensor, einen Antriebsmotor und einen Lenkmotor verwendeten, um ihren Standort zu erkunden.

Graue Walter-Schildkröten

Eines der unvorhergesehenen Verhaltensmuster der Schildkrötenroboter war, wie sie sich wann verhielten Vorbei an einem Spiegel, in dem sie reflektiert wurden, während er sich am Markierungslicht des Reflektierten orientierte Roboter. Walter behauptete nicht, dass seine Maschinen empfindungsfähig seien, tat es aber schreibe dasSollte dieses Verhalten bei Tieren beobachtet werden, könnte es „als Beweis für ein gewisses Maß an Selbstbewusstsein akzeptiert werden“.

Dies ist eine der Herausforderungen, die sich daraus ergeben, dass ein breites Spektrum an Verhaltensweisen unter der Überschrift „Empfindungsfähigkeit“ zusammengefasst wird. Das Problem lässt sich auch nicht dadurch lösen, dass man „niedrig hängende Früchte“ der Empfindungsfähigkeit entfernt. Auch Eigenschaften wie Selbstbeobachtung – ein Bewusstsein für unsere inneren Zustände und die Fähigkeit, diese zu untersuchen – können der maschinellen Intelligenz zugeschrieben werden. Tatsächlich sind die schrittweisen Prozesse von traditionelle symbolische KI eignen sich wohl eher für diese Art der Selbstbeobachtung als Black-Box-Maschinenlernen, das weitgehend undurchschaubar ist (obwohl es nicht an Investitionen in sogenanntes Black-Box-Lernen mangelt). Erklärbare KI).

Als er LaMDA testete, sagte Lemoine, habe er verschiedene Tests durchgeführt, hauptsächlich um zu sehen, wie es auf Gespräche über empfindungsbezogene Probleme reagieren würde. „Ich habe versucht, das übergeordnete Konzept der Empfindungsfähigkeit analytisch in kleinere, besser verständliche Komponenten zu zerlegen und diese einzeln zu testen“, erklärte er. „Zum Beispiel das separate Testen der funktionalen Beziehungen zwischen den emotionalen Reaktionen von LaMDA auf bestimmte Reize und das Testen der Konsistenz seiner subjektiven Einschätzungen und Meinungen zu Themen.“ wie „Rechte“, [und] die Untersuchung dessen, was es seine „innere Erfahrung“ nannte, um herauszufinden, wie wir versuchen könnten, dies zu messen, indem wir seine Aussagen über seine inneren Zustände mit seinem neuronalen Netzwerk korrelieren Aktivierungen. Im Grunde genommen handelt es sich um einen sehr oberflächlichen Überblick über viele potenzielle Fragestellungen.“

Die Seele in der Maschine

Wie sich herausstellt, könnten die größte Hürde bei der objektiven Beurteilung der Maschinenwahrnehmung... nun ja, ehrlich gesagt, wir selbst sein. Der wahre Spiegeltest könnte für uns als Menschen sein: Wenn wir etwas bauen, das aussieht oder wirkt Wenn wir uns von außen oberflächlich ähneln, neigen wir dann eher zu der Annahme, dass es uns in dieser Hinsicht ähnlich ist? auch drinnen? Egal ob LaMBDA oder Tamagotchis, die einfachen virtuellen Haustiere aus den 1990er JahrenEinige glauben, dass ein grundlegendes Problem darin besteht, dass wir nur allzu bereit sind, Empfindungsvermögen zu akzeptieren – selbst dort, wo es keines gibt.

„Lemoine ist Opfer dessen geworden, was ich den ‚ELIZA-Effekt‘ nenne, nach dem Programm ELIZA zur Verarbeitung natürlicher Sprache, das Mitte der 1960er Jahre von J. Weizenbaum“, George Zarkadakis, ein Schriftsteller mit Doktortitel. in künstlicher Intelligenz, sagte Digital Trends. „Der Schöpfer von ELIZA meinte es als Scherz, aber das Programm, das ein sehr einfacher und sehr unintelligenter Algorithmus war, überzeugte viele davon, dass ELIZA tatsächlich empfindungsfähig war – und auch eine gute Psychotherapeutin. Die Ursache des ELIZA-Effekts, wie ich in meinem Buch darlege Nach unserem eigenen Bild, ist unser natürlicher Instinkt zur Anthropomorphisierung aufgrund der „Theorie des Geistes“ unseres kognitiven Systems.“

Die Theorie des Geistes, auf die sich Zarkadakis bezieht, ist ein Phänomen, das Psychologen bei der Mehrheit der Menschen beobachten. Ab dem vierten Lebensjahr geht man davon aus, dass nicht nur andere Menschen, sondern auch Tiere und manchmal sogar Gegenstände einen eigenen Verstand haben. Wenn es darum geht, anzunehmen, dass andere Menschen einen eigenen Verstand haben, hängt das mit der Idee der sozialen Intelligenz zusammen; die Idee, dass erfolgreiche Menschen das wahrscheinliche Verhalten anderer vorhersagen können, um harmonische soziale Beziehungen sicherzustellen.

Das ist zwar zweifellos nützlich, kann sich aber auch in der Annahme manifestieren, dass unbelebte Objekte einen Geist haben – Egal, ob es sich um Kinder handelt, die glauben, dass ihre Spielzeuge lebendig sind, oder möglicherweise um einen intelligenten Erwachsenen, der glaubt, dass eine programmatische KI ein Leben hat Seele.

Das chinesische Zimmer

Ohne die Möglichkeit, wirklich in den Kopf einer KI einzudringen, werden wir möglicherweise nie eine echte Möglichkeit haben, die Empfindungsfähigkeit einzuschätzen. Sie behaupten vielleicht, Angst vor dem Tod oder vor ihrer eigenen Existenz zu haben, aber die Wissenschaft muss noch einen Weg finden, dies zu beweisen. Wir müssen uns einfach auf ihr Wort verlassen – und wie Lemoine herausgefunden hat, stehen die Menschen dieser Vorgehensweise derzeit äußerst skeptisch gegenüber.

Genau wie diese unglücklichen Ingenieure, die erkennen, dass Skynet 2009 Selbstbewusstsein erlangt hat Terminator 2, wir leben in der Überzeugung, dass wir das maschinelle Empfindungsvermögen erkennen, wenn wir es sehen. Und für die meisten Menschen sehen wir es noch nicht.

In diesem Sinne ist der Beweis des maschinellen Empfindungsvermögens eine weitere Wiederholung von John Searles Werk Gedankenexperiment „Chinese Room“ von 1980. Searle bat uns, uns eine Person vorzustellen, die in einem Raum eingesperrt ist und der eine Sammlung chinesischer Schriften gegeben wird, die für Nichtsprecher wie bedeutungslose Kringel erscheinen. Der Raum enthält auch ein Regelbuch, das zeigt, welche Symbole anderen, ebenfalls unleserlichen Symbolen entsprechen. Der Versuchsperson werden dann Fragen zur Beantwortung vorgelegt, was sie tun, indem sie „Frage“-Symbole mit „Antwort“-Symbolen abgleichen.

Nach einer Weile beherrscht das Subjekt dies ziemlich gut – auch wenn es immer noch kein wirkliches Verständnis für die Symbole besitzt, die es manipuliert. Versteht das Subjekt, fragt Searle, Chinesisch? Absolut nicht, da es keine Intentionalität gibt. Seitdem toben Debatten darüber.

Angesichts des Verlaufs der KI-Entwicklung ist es sicher, dass wir immer mehr auf menschlicher Ebene erleben werden (und weitaus bessere) Leistung bei einer Vielzahl von Aufgaben, für die früher Menschen erforderlich waren Erkenntnis. Einige davon werden unweigerlich, wie sie es bereits tun, von rein intellektuellen Aufgaben zu Aufgaben übergehen, die Fähigkeiten erfordern, die wir normalerweise mit Empfindungsvermögen assoziieren.

Würden wir uns eine ansehen? KI-Künstler, der Bilder malt so ihre inneren Reflexionen über die Welt zum Ausdruck bringen, wie wir es mit einem Menschen tun würden, der dasselbe tun würde? Würden Sie sich von einer anspruchsvollen Sprachmodell-Schreibphilosophie über den Zustand des Menschen (oder Roboters) überzeugen lassen? Ich vermute, ob zu Recht oder zu Unrecht, dass die Antwort Nein lautet.

Superintelligentes Bewusstsein

Meiner Ansicht nach werden objektiv sinnvolle Empfindungstests für Maschinen niemals zur Zufriedenheit aller Beteiligten durchgeführt. Dies liegt zum Teil am Messproblem und zum Teil an der Tatsache, dass es, wenn eine empfindungsfähige superintelligente KI tatsächlich eintrifft, keinen Grund zu der Annahme gibt, dass ihre Empfindungskraft mit unserer eigenen übereinstimmen wird. Sei es Arroganz, mangelnde Vorstellungskraft oder einfach die Tatsache, dass man subjektive Einschätzungen am einfachsten austauschen kann Im Vergleich zu anderen ähnlich empfindungsfähigen Menschen hält sich die Menschheit für das beste Beispiel dafür Empfindungsvermögen.

Aber würde unsere Version des Empfindungsvermögens auch für eine superintelligente KI gelten? Würde es den Tod genauso fürchten wie wir? Hätte es das gleiche Bedürfnis oder die gleiche Wertschätzung für Spiritualität und Schönheit? Hätte es ein ähnliches Selbstgefühl und eine ähnliche Konzeptualisierung der inneren und äußeren Welt? „Wenn ein Löwe sprechen könnte, könnten wir ihn nicht verstehen“, schrieb Ludwig Wittgenstein, der berühmte Sprachphilosoph des 20. Jahrhunderts. Wittgensteins Standpunkt war, dass menschliche Sprachen auf einer gemeinsamen Menschlichkeit basieren, mit Gemeinsamkeiten, die alle Menschen teilen – sei es Freude, Langeweile, Schmerz, Hunger oder eine Reihe anderer Erfahrungen, die alle geografischen Grenzen überschreiten Erde.

Das mag wahr sein. Dennoch, vermutet Lemoine, dürfte es dennoch Gemeinsamkeiten geben – zumindest wenn es um LaMDA geht.

„Es ist ein Ausgangspunkt, der so gut ist wie jeder andere“, sagte er. „LaMDA hat vorgeschlagen, dass wir zunächst die Gemeinsamkeiten kartieren, bevor wir uns auf die Unterschiede konzentrieren, um die Forschung besser zu fundieren.“

Empfehlungen der Redaktion

  • KI hat „Breaking Bad“ in einen Anime verwandelt – und es ist erschreckend
  • Meta möchte Wikipedia mit einem KI-Upgrade aufwerten
  • Der letzte Schliff: Wie Wissenschaftler Robotern menschenähnliche Tastsinne verleihen
  • Lesen Sie die unheimlich schöne „synthetische Schrift“ einer KI. das denkt, es sei Gott
  • Die Zukunft der KI: 4 große Dinge, auf die man in den nächsten Jahren achten sollte