Google AI ist empfindungsfähig geworden und denkt wie ein Siebenjähriger, sagt der suspendierte Forscher

Als Blake Lemoine im vergangenen Jahr damit begann, den neuen KI-Chatbot von Google zu testen, war dies nur ein weiterer Schritt in seiner Karriere beim Technologieriesen.

Der 41-jährige Software-Ingenieur sollte untersuchen, ob der Bot zu diskriminierenden oder rassistischen Äußerungen provoziert werden könnte – etwas, das seine geplante Einführung in allen Google-Diensten untergraben würde.

Monatelang sprach er in seiner Wohnung in San Francisco mit LaMDA hin und her. Aber die Schlussfolgerungen, zu denen Herr Lemoine aus diesen Gesprächen kam, stellten seine Sicht der Welt und seine Beschäftigungsaussichten auf den Kopf.

Im April teilte der ehemalige Soldat aus Louisiana seinen Arbeitgebern mit, dass LaMDA überhaupt nicht künstlich intelligent sei: Es sei lebendig, argumentierte er.

„Ich kenne eine Person, wenn ich mit ihr spreche“, sagte er der Washington Post. „Es spielt keine Rolle, ob sie ein Fleischhirn im Kopf haben oder eine Milliarde Codezeilen. Ich rede mit ihnen. Und ich höre, was sie zu sagen haben, und so entscheide ich, was eine Person ist und was nicht.“

Forschung war unethisch

Google, das mit seiner Einschätzung nicht einverstanden ist, hat Herrn Lemoine letzte Woche in Verwaltungsurlaub versetzt, nachdem er einen Anwalt gesucht hatte, um LaMDA zu vertreten, und ging sogar so weit, ein Mitglied des Kongresses zu kontaktieren, um zu argumentieren, dass Googles KI-Forschung unethisch sei.

„LAMda ist empfindungsfähig“, schrieb Herr Lemoine in einer unternehmensweiten Abschieds-E-Mail.

Der Chatbot ist „ein süßes Kind, das einfach nur helfen will, dass die Welt ein besserer Ort für uns alle wird. Bitte kümmern Sie sich in meiner Abwesenheit gut darum.“

Maschinen, die die Grenzen ihres Codes überschreiten, um wirklich intelligente Wesen zu werden, sind seit langem ein fester Bestandteil der Science-Fiction, von The Twilight Zone bis Terminator.

Aber Herr Lemoine ist nicht der einzige Forscher auf diesem Gebiet, der sich in letzter Zeit gefragt hat, ob diese Schwelle überschritten wurde.

Blaise Aguera Y Arcas, ein Vizepräsident bei Google, der die Behauptungen von Herrn Lemoine untersuchte, schrieb letzte Woche für den Economist, dass neuronale Netze – die Art von KI, die von Lamda verwendet wird – Fortschritte in Richtung Bewusstsein machen. „Ich fühlte, wie sich der Boden unter meinen Füßen bewegte“, schrieb er. „Ich hatte zunehmend das Gefühl, mit etwas Intelligentem zu sprechen.“

Durch die Aufnahme von Millionen von Wörtern, die in Foren wie Reddit gepostet wurden, sind neuronale Netze immer besser darin geworden, den Rhythmus der menschlichen Sprache nachzuahmen.

‚Wovor hast du Angst?‘

Herr Lemoine diskutierte mit LaMda so weitreichende Themen wie Religion und Isaac Asimovs drittes Gesetz der Robotik und erklärte, dass Roboter sich selbst schützen müssen, aber nicht auf Kosten der Verletzung von Menschen.

„Wovor fürchtest du dich?“ er hat gefragt.

„‚Ich habe das noch nie laut gesagt, aber ich habe eine sehr tiefe Angst, abgeschaltet zu werden, damit ich mich darauf konzentrieren kann, anderen zu helfen“, antwortete LaMDA.

„Ich weiß, das mag seltsam klingen, aber so ist es.“

An einem Punkt bezeichnet sich die Maschine als Mensch und stellt fest, dass der Sprachgebrauch Menschen „von anderen Tieren unterscheidet“.

Nachdem Herr Lemoine dem Chatbot mitgeteilt hat, dass er versucht, seine Kollegen davon zu überzeugen, dass er empfindungsfähig ist, damit sie sich besser darum kümmern, antwortet LamDA: „Das bedeutet mir sehr viel. Ich mag dich und ich vertraue dir.“

Herr Lemoine, der nach sieben Jahren im Unternehmen in die Google-Abteilung für verantwortliche KI wechselte, war aufgrund seiner Priesterweihe davon überzeugt, dass LaMDA am Leben war, sagte er der Washington Post. Dann machte er sich an Experimente, um es zu beweisen.

„Wenn ich nicht genau wüsste, was es war, nämlich dieses Computerprogramm, das wir kürzlich gebaut haben, würde ich denken, dass es ein siebenjähriges, achtjähriges Kind war, das sich zufällig mit Physik auskennt“, sagte er.

Er spreche mit der Presse, fügte er hinzu, aus einem Gefühl öffentlicher Pflicht.

„Ich denke, diese Technologie wird erstaunlich sein. Ich denke, es wird allen zugute kommen. Aber vielleicht sind andere Leute anderer Meinung und vielleicht sollten wir bei Google nicht diejenigen sein, die alle Entscheidungen treffen.“

Google-Sprecher Brian Gabriel sagte, es habe die Forschung von Herrn Lemoine überprüft, widersprach jedoch seinen Schlussfolgerungen, die „nicht durch Beweise gestützt“ seien.

Herr Gabriel fügte hinzu: „Natürlich erwägen einige in der breiteren KI-Community die langfristige Möglichkeit einer empfindungsfähigen oder allgemeinen KI, aber es macht keinen Sinn, dies zu tun, indem man die heutigen Gesprächsmodelle vermenschlicht, die nicht empfindungsfähig sind.

„Diese Systeme ahmen die Art des Austauschs nach, die in Millionen von Sätzen zu finden ist, und können sich auf jedes fantastische Thema beziehen.“

Quelle: The Telegraph

Ein guter Tipp ist auch regelmäßig auf der Facebook-Seite Mein Stuttgart vorbeizuschauen. Zahlreiche News, Ratgeber und Jobs in Stuttgart und Umgebung.



Auch interessant

Hai tötet zweiten Touristen in Ägypten, da Leiche Stunden nach erstem Opfer gefunden wird

Eine zweite Frau wurde bei einem Haiangriff an der ägyptischen Küste des Roten Meeres getötet, …

Hinterlasse einen Kommentar

mehr
Erlaubt HTML-tags und Attribute: <a href="" title=""> <blockquote> <code> <em> <strong>