In Interviews und öffentlichen Erklärungen haben viele in der KI-Community die Behauptungen des Ingenieurs zurückgewiesen, während einige darauf hingewiesen haben, dass sein Bericht hervorhebt, wie Technologie Menschen dazu bringen kann, ihr menschliche Eigenschaften zuzuschreiben. Aber man kann argumentieren, dass der Glaube, dass Googles KI bewusst sein kann, unsere Befürchtungen und Erwartungen darüber unterstreicht, was diese Technologie leisten kann.
LaMDA, was für Language Model for Dialog Applications steht, ist eines von mehreren großen KI-Systemen, die mit großen Textschwaden aus dem Internet trainiert wurden und auf schriftliche Eingabeaufforderungen reagieren können. Sie haben im Wesentlichen die Aufgabe, Muster zu finden und vorherzusagen, welches Wort oder welche Wörter als nächstes kommen sollten. Solche Systeme wurden
zunehmend gut Beantworten von Fragen und Schreiben auf eine Weise, die überzeugend menschlich erscheinen mag – und Google selbst
LaMDA stellte diesen vergangenen Mai in einem Blogbeitrag vor Als einer kann er sich „frei fließend mit einer scheinbar unendlichen Anzahl von Themen beschäftigen“. Aber die Ergebnisse können auch lächerlich, seltsam, nervig und anfällig für Ablenkung sein.
Berichten zufolge sagte Ingenieur Blake Lemoine der Washington Post, dass er die Beweise mit Google geteilt habe, dass Lambda bei Bewusstsein sei, aber das Unternehmen habe nicht zugestimmt. In einer Erklärung sagte Google am Montag, dass sein Team, dem Ethiker und Technologen angehören, „Blakes Bedenken in Übereinstimmung mit unseren KI-Prinzipien überprüft und ihm mitgeteilt hat, dass die Beweise seine Behauptungen nicht stützen“.
Am 6. Juni veröffentlichte Lemoine auf Medium, dass Google ihn „im Zusammenhang mit einer Untersuchung ethischer Bedenken bezüglich künstlicher Intelligenz, die ich innerhalb des Unternehmens geäußert hatte“, in bezahlten Verwaltungsurlaub versetzt hatte und dass er „bald“ entlassen werden könnte. (Er erwähnte die Erfahrung von Margaret Mitchell, die bis dahin Leiterin des ethischen KI-Teams bei Google war
Google hat es Anfang 2021 rausgeschmissen Nach ihrem Frank über
Ende 2020 wird Timnit Gebro, der damalige Co-Leader, aussteigen. Gebru wurde nach internen Streitereien verdrängt, darunter einer im Zusammenhang mit einer Forschungsarbeit, in der die KI-Führung des Unternehmens aufgefordert wurde, das Angebot auf einer Konferenz nicht in Betracht zu ziehen oder ihren Namen zu streichen.)
Ein Google-Sprecher bestätigte, dass Lemoine im Verwaltungsurlaub bleibt. Laut The Washington Post wurde er wegen Verstoßes gegen die Vertraulichkeitsrichtlinie des Unternehmens beurlaubt.
Lemoine war am Montag für eine Stellungnahme nicht erreichbar.
Das anhaltende Aufkommen leistungsstarker Computerprogramme, die auf Deep Big Data trainiert sind, hat Bedenken hinsichtlich der Ethik geweckt, die die Entwicklung und Verwendung dieser Technologie regeln. Und manchmal werden Entwicklungen aus der Perspektive dessen gesehen, was kommen könnte, und nicht aus dem, was derzeit möglich ist.
Die Reaktionen von Mitgliedern der KI-Community auf Lemoines Experiment hallten am Wochenende in den sozialen Medien wider und kamen im Allgemeinen zu demselben Schluss: Die KI von Google ist nicht einmal annähernd bewusst. Abiba Birhani, Trustworthy Senior Fellow für künstliche Intelligenz bei Mozilla,
zwitschern Am Sonntag: „Wir sind in eine neue Ära ‚dieses bewussten neuronalen Netzwerks‘ eingetreten, und dieses Mal wird es viel Energie kosten, es zu widerlegen.“
Gary Marcus, Gründer und CEO von Uber-sold Geometric Intelligence und Autor von Büchern wie „Rebooting AI: Building Artificial Intelligence We Can Trust“, beschrieb die Idee von LaMDA als bewusst
„Bullshit auf Stelzen“ in einem Tweet. schnell geschrieben
Blogeintrag Beachten Sie, dass alle diese KI-Systeme einen Musterabgleich durchführen, indem sie aus riesigen Sprachdatenbanken ziehen.
In einem Interview mit CNN Business am Montag sagte Marcus, man könne sich Systeme wie LaMDA am besten als eine „verherrlichte Version“ eines Autocomplete-Programms vorstellen, mit dem man das nächste Wort in einer Textnachricht vorhersagen könnte. Wenn du schreibst „Ich habe wirklich Hunger, also möchte ich gehen“, könnte er „Restaurant“ als dein nächstes Wort vorschlagen. Dies ist jedoch eine Vorhersage, die mithilfe von Statistiken erstellt wurde.
„Niemand sollte denken, dass die Autovervollständigung, selbst bei Steroiden, bewusst ist“, sagte er.
Im Interview mit Gebru, einem Gründer und CEO von
Distributed Artificial Intelligence Research InstituteDAIR oder DAIR, Lemoine sagte, er sei ein Opfer vieler Unternehmen, die behaupten, dass bewusste künstliche Intelligenz oder künstliche allgemeine Intelligenz – eine Idee, die sich auf künstliche Intelligenz bezieht, die menschenähnliche Aufgaben ausführen und auf sinnvolle Weise mit uns interagieren kann – nicht weit entfernt ist .
Zum Beispiel bemerkt Ilya Sutskiver, Mitbegründer und leitender Wissenschaftler bei OpenAI,
zwitschern Im Februar: „Die heutigen großen neuronalen Netze sind vielleicht ein wenig bewusst.“ Und letzte Woche Vizepräsident von Google Research und Kollege Blaise Aguera y Arcas
Geschrieben in einem Artikel für The Economist Als er letztes Jahr anfing, LaMDA zu verwenden, „hatte ich zunehmend das Gefühl, über etwas Intelligentes zu sprechen.“ (Dieser Artikel enthält jetzt eine Anmerkung des Herausgebers, in der darauf hingewiesen wird, dass Lemoine seitdem „in Urlaub versetzt wurde, nachdem er in einem Interview mit der Washington Post behauptet hatte, LaMDA, Googles Chatbot, sei „bei Bewusstsein“ geworden.)
„Was passiert, ist, dass es so einen Wettlauf gibt, mehr Daten zu verwenden, mehr Computer zu verwenden, um zu sagen, dass Sie dieses generische Ding geschaffen haben, das Sie alle kennen, alle Ihre Fragen beantworten oder was auch immer, und das ist die Trommel, die Sie gespielt haben“, Gebru sagte. . „Also, wie überrascht es dich, wenn diese Person es auf die Spitze treibt?“
In seiner Erklärung stellte Google fest, dass LaMDA 11 „ausgezeichnete Überprüfungen der KI-Prinzipien“ sowie „rigorose Forschung und Tests“ in Bezug auf Qualität, Sicherheit und die Fähigkeit, faktenbasierte Daten zu erstellen, durchlaufen hat. „Natürlich untersuchen einige in der breiteren KI-Community das langfristige Potenzial bewusster oder allgemeiner KI, aber es macht keinen Sinn, dies zu tun, indem sie aktuelle Gesprächsmodelle verkörpern, die nicht bewusst sind“, sagte das Unternehmen.
„Hunderte von Forschern und Ingenieuren haben Gespräche mit Lambda geführt, und uns ist niemand bekannt, der so umfangreiche Behauptungen aufstellt oder Lambda verkörpert wie Blake“, sagte Google.