Google feuert den KI-Ingenieur Blake Lemoine, der behauptet, seine LaMDA 2-KI sei empfindungsfähig

Google feuert den KI-Ingenieur Blake Lemoine, der behauptet, seine LaMDA 2-KI sei empfindungsfähig

Blake Lemoine, der Google-Ingenieur, der öffentlich behauptete, dass die LaMDA-Konversations-KI des Unternehmens empfindungsfähig sei, wurde laut Google gefeuert der Big-Technology-Newsletter, die mit Lemoine sprach. Im Juni stellte Google Lemoine wegen Verstoßes gegen seine Vertraulichkeitsvereinbarung in bezahlten Verwaltungsurlaub, nachdem er sich mit Regierungsmitgliedern über seine Bedenken in Verbindung gesetzt und einen Anwalt engagiert hatte, um LaMDA zu vertreten.

Eine Erklärung per E-Mail an Der Rand Am Freitag erschien Google-Sprecher Brian Gabriel, um die Entlassung zu bestätigen und sagte: „Wir wünschen Blake alles Gute.“ Das Unternehmen sagt auch: „LaMDA hat 11 verschiedene Überprüfungen durchlaufen, und wir haben Anfang dieses Jahres ein Forschungspapier veröffentlicht, in dem die Arbeit, die in seine verantwortungsvolle Entwicklung einfließt, detailliert beschrieben wird.“ Google behauptet, dass es die Behauptungen von Lemoine „ausführlich“ geprüft und festgestellt habe, dass sie „völlig unbegründet“ seien.

Dies stimmt mit überein zahlreich KI-Experten und Ethiker, die gesagt haben, dass seine Behauptungen angesichts der heutigen Technologie mehr oder weniger unmöglich seien. Lemoine behauptet, dass seine Gespräche mit dem Chatbot von LaMDA ihn glauben ließen, dass es mehr als nur ein Programm geworden ist und seine eigenen Gedanken und Gefühle hat, anstatt nur Gespräche zu führen, die realistisch genug sind, um es so erscheinen zu lassen, wie es beabsichtigt ist.

Er argumentiert, dass Googles Forscher die Zustimmung von LaMDA einholen sollten, bevor sie Experimente damit durchführen (Lemoine selbst wurde beauftragt zu testen, ob die KI Hassreden produziert) und Teile dieser Gespräche auf seinem Medium-Konto als Beweis veröffentlicht.

Der YouTube-Kanal Computerphile hat ein anständig zugänglicher neunminütiger Erklärer darüber, wie LaMDA funktioniert und wie es die Antworten hervorbringen könnte, die Lemoine überzeugten, ohne tatsächlich empfindungsfähig zu sein.

Hier ist die vollständige Erklärung von Google, die auch auf Lemoines Vorwurf eingeht, dass das Unternehmen seine Behauptungen nicht ordnungsgemäß untersucht habe:

Wie wir in unserem teilen KI-Prinzipien, nehmen wir die Entwicklung von KI sehr ernst und bleiben der verantwortungsvollen Innovation verpflichtet. LaMDA hat 11 verschiedene Überprüfungen durchlaufen, und wir haben eine veröffentlicht Forschungsbericht Anfang dieses Jahres detailliert die Arbeit, die in seine verantwortungsvolle Entwicklung einfließt. Wenn ein Mitarbeiter Bedenken hinsichtlich unserer Arbeit äußert, wie es Blake getan hat, prüfen wir diese ausführlich. Wir fanden Blakes Behauptung, LaMDA sei empfindungsfähig, völlig unbegründet und arbeiteten viele Monate mit ihm daran, dies zu klären. Diese Diskussionen waren Teil der offenen Kultur, die uns hilft, verantwortungsbewusst zu innovieren. Daher ist es bedauerlich, dass sich Blake trotz langwieriger Beschäftigung mit diesem Thema immer noch dafür entschieden hat, beharrlich gegen klare Beschäftigungs- und Datensicherheitsrichtlinien zu verstoßen, zu denen auch die Notwendigkeit gehört, Produktinformationen zu schützen. Wir werden unsere sorgfältige Entwicklung von Sprachmodellen fortsetzen und wünschen Blake alles Gute.

Quellenlink