Nennen Sie es die Skynet-Hypothese, künstliche allgemeine Intelligenz oder das Aufkommen der Singularität – seit Jahren sind KI-Experten und Nicht-Experten haben sich gleichermaßen über die Idee geärgert (und für eine kleine Gruppe sogar gefeiert), dass künstliche Intelligenz eines Tages intelligenter werden könnte als Menschen.
Der Theorie zufolge gibt es Fortschritte in der KI – insbesondere im Bereich des maschinellen Lernens, die in der Lage sind, neue Herausforderungen zu meistern Informationen und schreibt seinen Code entsprechend um – wird irgendwann mit der Wetware des Biologischen gleichziehen Gehirn. Bei dieser Interpretation der Ereignisse schreitet jede KI voran Gefahr-gewinnende IBM-Maschinen zum massives KI-Sprachmodell GPT-3 bringt die Menschheit einer existenziellen Bedrohung einen Schritt näher. Wir bauen buchstäblich unsere bald empfindungsfähige Nachfolger.
Empfohlene Videos
Außer dass es nie passieren wird. Zumindest nach Ansicht der Autoren des neuen Buches Warum Maschinen niemals die Welt beherrschen werden: Künstliche Intelligenz ohne Angst.
Co-Autoren Philosophieprofessor an der University at Buffalo Barry Smith Und Jobst LandgrebeDer Gründer des deutschen KI-Unternehmens Cognotekt argumentiert, dass die menschliche Intelligenz nicht so schnell – oder jemals – von „einem unsterblichen Diktator“ überholt werden wird. Sie sagten Digitale Trends ihre Gründe dafür.
Digitale Trends (DT): Wie ist dieses Thema auf Ihren Radar gekommen?
Jobst Landgrebe (JL): Ich bin ausgebildeter Arzt und Biochemiker. Als ich meine Karriere begann, habe ich Experimente durchgeführt, die viele Daten generierten. Ich habe angefangen, Mathematik zu studieren, um diese Daten interpretieren zu können, und habe gesehen, wie schwierig es ist, biologische Systeme mithilfe der Mathematik zu modellieren. Es gab immer dieses Missverhältnis zwischen den mathematischen Methoden und den biologischen Daten.
Mit Mitte Dreißig verließ ich die akademische Laufbahn und wurde Unternehmensberater und Unternehmer, der sich mit Softwaresystemen für künstliche Intelligenz beschäftigte. Ich habe versucht, KI-Systeme zu entwickeln, die nachahmen, was Menschen tun können. Mir wurde klar, dass ich vor dem gleichen Problem stand wie vor Jahren in der Biologie.
Kunden sagten zu mir: „Warum bauen Sie keine Chatbots?“ Ich sagte: „Weil sie nicht funktionieren; Wir können diese Art von System nicht richtig modellieren.“ Das hat letztendlich dazu geführt, dass ich dieses Buch geschrieben habe.
Professor Barry Smith (BS): Ich dachte, es sei ein sehr interessantes Problem. Ähnliche Probleme mit KI hatte ich bereits geahnt, aber nie zu Ende gedacht. Zunächst schrieben wir einen Aufsatz mit dem Titel „Künstliche Intelligenz wieder sinnvoll machen.‘ (Das war in der Trump-Ära.) Es ging darum, warum neuronale Netze bei der Sprachmodellierung versagen. Dann beschlossen wir, den Aufsatz zu einem Buch zu erweitern, das sich eingehender mit diesem Thema befasst.
DT: Ihr Buch äußert Skepsis gegenüber der Art und Weise, wie neuronale Netze, die für modernes Deep Learning von entscheidender Bedeutung sind, das menschliche Gehirn nachahmen. Es handelt sich eher um Näherungswerte als um genaue Modelle der Funktionsweise des biologischen Gehirns. Aber akzeptieren Sie die Kernprämisse, dass es möglich ist, wenn wir das Gehirn in granularer Form verstehen würden? Genug Details, es könnte künstlich repliziert werden – und dass dies zu Intelligenz führen würde oder Empfindungsvermögen?
J L: Der Name „Neuronales Netzwerk“ ist eine völlige Fehlbezeichnung. Die neuronalen Netze, über die wir heute verfügen, selbst die ausgefeiltesten, haben nichts mit der Funktionsweise des Gehirns zu tun. Die Ansicht, dass das Gehirn in der Art und Weise, wie neuronale Netze aufgebaut sind, aus einer Reihe miteinander verbundener Knoten besteht, ist völlig naiv.
Wenn wir uns die primitivste Bakterienzelle ansehen, verstehen wir immer noch nicht einmal, wie sie funktioniert. Wir verstehen einige seiner Aspekte, aber wir haben kein Modell dafür, wie es funktioniert – geschweige denn ein Neuron, das viel komplizierter ist, oder Milliarden von Neuronen, die miteinander verbunden sind. Ich glaube, es ist wissenschaftlich unmöglich um zu verstehen, wie das Gehirn funktioniert. Wir können nur bestimmte Aspekte verstehen und mit diesen Aspekten umgehen. Wir haben kein vollständiges Verständnis davon, wie das Gehirn funktioniert, und wir werden es auch nicht erreichen.
Wenn wir genau verstehen würden, wie jedes Molekül im Gehirn funktioniert, könnten wir es wahrscheinlich nachbilden. Das würde bedeuten, alles in mathematische Gleichungen zu stecken. Dann könnten Sie dies mit einem Computer reproduzieren. Das Problem besteht lediglich darin, dass wir nicht in der Lage sind, diese Gleichungen aufzuschreiben und zu erstellen.
BS: Viele der interessantesten Dinge auf der Welt geschehen auf einer Granularitätsebene, die wir nicht erreichen können. Wir verfügen einfach nicht über die Bildgebungsausrüstung und werden wahrscheinlich auch nie über die Bildgebungsausrüstung verfügen, um das meiste zu erfassen, was auf den sehr feinen Ebenen des Gehirns vor sich geht.
Das bedeutet, dass wir beispielsweise nicht wissen, was für das Bewusstsein verantwortlich ist. Tatsächlich gibt es eine Reihe recht interessanter philosophischer Probleme, die gemäß der von uns verfolgten Methode immer unlösbar sein werden – und deshalb sollten wir sie einfach ignorieren.
Ein weiterer Grund ist die Willensfreiheit. Wir befürworten sehr stark die Idee, dass der Mensch einen Willen hat; Wir können Absichten, Ziele usw. haben. Aber wir wissen nicht, ob es ein freier Wille ist oder nicht. Das ist ein Problem, das mit der Physik des Gehirns zu tun hat. Soweit es die uns vorliegenden Beweise betrifft, können Computer keinen Willen haben.
DT: Der Untertitel des Buches lautet „Künstliche Intelligenz ohne Angst“. Welche konkrete Angst meinen Sie?
BS: Dies wurde durch die Literatur zur Singularität provoziert, die Ihnen, wie ich weiß, bekannt ist. Nick Bostrom, David Chalmers, Elon Musk und dergleichen. Als wir mit unseren Kollegen in der realen Welt sprachen, wurde uns klar, dass es tatsächlich eine gab Es besteht eine gewisse Angst in der Bevölkerung, dass die KI irgendwann die Macht übernehmen und die Welt zum Nachteil verändern würde Menschen.
Wir haben in dem Buch ziemlich viel über die Argumente vom Typ Bostrum geschrieben. Das Hauptargument gegen sie ist, dass die Maschine, wenn sie keinen Willen haben kann, auch keinen bösen Willen haben kann. Ohne einen bösen Willen gibt es nichts, wovor man Angst haben müsste. Natürlich können wir immer noch Angst vor Maschinen haben, genauso wie wir Angst vor Waffen haben können.
Aber das liegt daran, dass die Maschinen von Menschen mit bösen Absichten verwaltet werden. Aber dann ist es nicht die KI, die böse ist; Es sind die Menschen, die die KI bauen und programmieren
DT: Warum interessiert die Vorstellung von Singularität oder künstlicher allgemeiner Intelligenz die Menschen so sehr? Ob sie Angst davor haben oder davon fasziniert sind, diese Idee hat etwas, das bei den Menschen auf breiter Ebene Anklang findet.
J L: Es gibt diese Idee, die zu Beginn des 19. Jahrhunderts entstand und dann von Nietzsche am Ende dieses Jahrhunderts verkündet wurde, dass Gott tot ist. Da die Eliten unserer Gesellschaft keine Christen mehr sind, brauchten sie einen Ersatz. Max Stirner, der wie Karl Marx ein Schüler Hegels war, schrieb darüber ein Buch, in dem er sagte: „Ich bin mein eigener Gott.“
Wenn Sie Gott sind, möchten Sie auch ein Schöpfer sein. Wenn Sie eine Superintelligenz erschaffen könnten, dann wären Sie wie Gott. Ich denke, es hat mit den hypernarzisstischen Tendenzen in unserer Kultur zu tun. Darüber reden wir im Buch nicht, aber das erklärt mir, warum diese Idee in unserer Zeit, in der es kein transzendentes Wesen mehr gibt, an das man sich wenden kann, so attraktiv ist.
DT: Interessant. Um dem nachzugehen, ist es die Idee, dass die Schaffung von KI – oder das Ziel, KI zu schaffen – ein narzisstischer Akt ist. In diesem Fall ist die Vorstellung, dass diese Schöpfungen irgendwie mächtiger werden würden als wir, eine alptraumhafte Wendung. Es ist das Kind, das die Eltern tötet.
J L: Ein bisschen so, ja.
DT: Was wäre für Sie das Endergebnis Ihres Buches, wenn alle von Ihren Argumenten überzeugt wären? Was würde das für die Zukunft der KI-Entwicklung bedeuten?
J L: Das ist eine sehr gute Frage. Ich kann Ihnen genau sagen, was meiner Meinung nach passieren würde – und passieren wird. Ich denke, mittelfristig werden die Leute unsere Argumente akzeptieren, und das wird zu einer besser angewandten Mathematik führen.
Etwas, das allen großen Mathematikern und Physikern vollkommen bewusst ist, sind die Grenzen dessen, was sie mathematisch erreichen können. Da sie sich dessen bewusst sind, konzentrieren sie sich nur auf bestimmte Probleme. Wenn Sie sich der Grenzen bewusst sind, dann gehen Sie durch die Welt, suchen nach diesen Problemen und lösen sie. So fand Einstein die Gleichungen für die Brownsche Bewegung; wie er auf seine Relativitätstheorien kam; wie Planck die Schwarzkörperstrahlung löste und damit die Quantentheorie der Materie initiierte. Sie hatten ein gutes Gespür dafür, welche Probleme mathematisch gelöst werden können und welche nicht.
Wenn die Menschen die Botschaft unseres Buches verstehen, werden sie unserer Meinung nach in der Lage sein, bessere Systeme zu entwickeln, weil sie Wir konzentrieren uns auf das, was wirklich machbar ist – und verschwenden kein Geld und keine Mühe mehr für etwas, das nicht machbar ist erreicht.
BS: Ich denke, dass ein Teil der Botschaft bereits ankommt, nicht aufgrund dessen, was wir sagen, sondern aufgrund der Erfahrungen, die Menschen machen, wenn sie große Geldbeträge für KI-Projekte ausgeben und die KI-Projekte dann scheitern. Ich vermute, Sie kennen das Joint Artificial Intelligence Center. Ich kann mich nicht an die genaue Summe erinnern, aber ich glaube, es waren ungefähr 10 Milliarden Dollar, die sie einem berühmten Auftragnehmer gegeben haben. Am Ende hatten sie nichts davon. Sie haben den Vertrag gekündigt.
(Anmerkung des Herausgebers: JAIC, eine Unterabteilung der US-Streitkräfte, sollte die „Bereitstellung und Einführung von KI beschleunigen, um Missionswirkung zu erzielen“. auf einer Skala." Im Juni dieses Jahres wurde es zu einer größeren einheitlichen Organisation, dem Chief Digital and Artificial Intelligence Officer, mit zwei weiteren Büros zusammengefasst. JAIC hörte auf, als eigenständige Einheit zu existieren.)
DT: Was ist Ihrer Meinung nach auf allgemeiner Ebene das überzeugendste Argument, das Sie in dem Buch vorbringen?
BS: Jedes KI-System ist mathematischer Natur. Da wir Bewusstsein, Willen oder Intelligenz nicht mathematisch modellieren können, können diese nicht mithilfe von Maschinen nachgeahmt werden. Daher werden Maschinen nicht intelligent, geschweige denn superintelligent.
J L: Die Struktur unseres Gehirns lässt nur begrenzte Modelle der Natur zu. In der Physik wählen wir eine Teilmenge der Realität aus, die zu unseren mathematischen Modellierungsfähigkeiten passt. So erhielten Newton, Maxwell, Einstein oder Schrödinger ihre berühmten und schönen Vorbilder. Diese können jedoch nur eine kleine Anzahl von Systemen beschreiben oder vorhersagen. Unsere besten Modelle sind diejenigen, die wir zur Entwicklung von Technologie nutzen. Wir sind nicht in der Lage, ein vollständiges mathematisches Modell der belebten Natur zu erstellen.
Dieses Interview wurde aus Gründen der Länge und Klarheit bearbeitet.
Empfehlungen der Redaktion
- Top-Autoren verlangen von KI-Firmen eine Bezahlung für die Nutzung ihrer Arbeit
- Bing Chat wehrt sich gegen KI-Verbote am Arbeitsplatz
- Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
- Elon Musks neues KI-Unternehmen will „das Universum verstehen“
- Das Rekordwachstum von ChatGPT wurde gerade durch eine neue virale App entthront