Google AI hat die Konten von Eltern wegen potenziellen Missbrauchs von Nacktfotos ihrer kranken Kinder markiert

Google AI hat die Konten von Eltern wegen potenziellen Missbrauchs von Nacktfotos ihrer kranken Kinder markiert

Ein besorgter Vater sagt, dass Google, nachdem er mit seinem Android-Smartphone Fotos von einer Infektion in der Leistengegend seines Kleinkindes gemacht hatte, die Bilder als Material für sexuellen Missbrauch von Kindern (CSAM) gekennzeichnet habe ein Bericht von Die New York Times. Das Unternehmen schloss seine Konten und reichte einen Bericht beim National Center for Missing and Exploited Children (NCMEC) ein und spornte eine polizeiliche Untersuchung an, wobei es die Komplikationen hervorhob, die entstehen, wenn versucht wird, den Unterschied zwischen potenziellem Missbrauch und einem unschuldigen Foto zu erkennen, sobald es Teil eines Benutzers wird digitale Bibliothek, ob auf ihrem persönlichen Gerät oder im Cloud-Speicher.

Bedenken hinsichtlich der Folgen einer Verwischung der Grenzen dessen, was als privat betrachtet werden sollte, wurden letztes Jahr geäußert, als Apple seinen Kindersicherheitsplan ankündigte. Als Teil des Plans würde Apple Bilder auf Apple-Geräten lokal scannen, bevor sie in iCloud hochgeladen werden, und die Bilder dann mit der gehashten Datenbank bekannter CSAM des NCMEC abgleichen. Wenn genügend Übereinstimmungen gefunden wurden, überprüfte ein menschlicher Moderator den Inhalt und sperrte das Konto des Benutzers, wenn es CSAM enthielt.

Die Electronic Frontier Foundation (EFF), eine gemeinnützige Gruppe für digitale Rechte, schlug Apples Plan zuund sagte, es könne „eine Hintertür zu Ihrem Privatleben öffnen“ und dass es „eine Verringerung der Privatsphäre für alle Benutzer von iCloud Photos darstellt, keine Verbesserung“.

Apple platzierte schließlich den Teil zum Scannen gespeicherter Bilder in Wartestellungaber mit dem Start von iOS 15.2 wurde mit dem Einschließen fortgefahren eine optionale Funktion für Kinderkonten in einem Familien-Sharing-Plan enthalten. Wenn Eltern sich anmelden, dann analysiert die Nachrichten-App auf dem Konto eines Kindes „Bildanhänge und stellt fest, ob ein Foto Nacktheit enthält, während die Ende-zu-Ende-Verschlüsselung der Nachrichten beibehalten wird“. Wenn es Nacktheit erkennt, verwischt es das Bild, zeigt eine Warnung für das Kind an und präsentiert ihm Ressourcen, die zur Sicherheit im Internet beitragen sollen.

Der Hauptvorfall hervorgehoben durch Die New York Times fand im Februar 2021 statt, als einige Arztpraxen aufgrund der COVID-19-Pandemie noch geschlossen waren. Wie von der festgestellt Mal, Mark (dessen Nachname nicht bekannt gegeben wurde) bemerkte eine Schwellung im Genitalbereich seines Kindes und schickte auf Bitten einer Krankenschwester Bilder des Problems vor einer Videokonsultation. Der Arzt verschrieb schließlich Antibiotika, die die Infektion heilten.

Laut dem NYTerhielt Mark nur zwei Tage nach dem Aufnehmen der Fotos eine Benachrichtigung von Google, in der es hieß, dass seine Konten wegen „schädlicher Inhalte“ gesperrt worden seien, die „einen schwerwiegenden Verstoß gegen die Richtlinien von Google darstellen und möglicherweise illegal sind“.

Wie viele Internetunternehmen, darunter Facebook, Twitter und Reddit, hat Google Hash-Matching mit Microsofts PhotoDNA verwendet, um hochgeladene Bilder zu scannen, um Übereinstimmungen mit bekannten CSAM zu erkennen. Im Jahr 2012 führte dies zur Festnahme eines Mannes, der ein registrierter Sexualstraftäter war und Gmail benutzte, um Bilder eines jungen Mädchens zu versenden.

2018, Google kündigte an der Start seiner Content Safety API KI-Toolkit das „nie zuvor gesehene CSAM-Bilder proaktiv identifizieren kann, damit sie überprüft und, wenn sie als CSAM bestätigt werden, so schnell wie möglich entfernt und gemeldet werden können“. Es verwendet das Tool für seine eigenen Dienste und bietet es zusammen mit einer von YouTube-Ingenieuren entwickelten Video-Targeting-CSAI-Match-Hash-Matching-Lösung auch anderen zur Nutzung an.

Google „Missbrauchsbekämpfung auf unseren eigenen Plattformen und Diensten“:

Wir identifizieren und melden CSAM mit geschulten Spezialistenteams und modernster Technologie, einschließlich Klassifikatoren für maschinelles Lernen und Hash-Matching-Technologie, die einen „Hash“ oder eindeutigen digitalen Fingerabdruck für ein Bild oder Video erstellt, damit er mit Hashes verglichen werden kann bekannter CSAM. Wenn wir CSAM finden, melden wir es dem Nationalen Zentrum für vermisste und ausgebeutete Kinder (NCMEC), das mit Strafverfolgungsbehörden auf der ganzen Welt zusammenarbeitet.

Das sagte ein Google-Sprecher Mal dass Google die persönlichen Bilder der Benutzer nur dann scannt, wenn ein Benutzer „bestätigende Maßnahmen“ ergreift, was anscheinend das Sichern seiner Bilder in Google Fotos beinhalten kann. Wenn Google ausbeuterische Bilder meldet, wird die Mal stellt fest, dass Google von erforderlich ist Bundesgesetz den potenziellen Täter an die CyberTipLine beim NCMEC zu melden. 2021 Google berichteten 621.583 Fälle von CSAM an die CyberTipLine des NCMEC, während das NCMEC alarmierte die Behörden von 4.260 potenziellen Opferneine Liste, die die NYT sagt enthält Marks Sohn.

Mark verlor schließlich den Zugriff auf seine E-Mails, Kontakte, Fotos und sogar seine Telefonnummer, als er den mobilen Dienst von Google Fi nutzte Mal Berichte. Mark versuchte sofort, gegen die Entscheidung von Google Einspruch einzulegen, aber Google lehnte Marks Antrag ab. Das San Francisco Police Department, in dem Mark lebt, leitete im Dezember 2021 eine Untersuchung gegen Mark ein und erhielt alle Informationen, die er bei Google gespeichert hatte. Der Ermittler des Falls stellte schließlich fest, dass der Vorfall „nicht die Elemente eines Verbrechens erfüllte und dass kein Verbrechen stattgefunden hat“. NYT Anmerkungen.

„Material zum sexuellen Missbrauch von Kindern (CSAM) ist abscheulich und wir setzen uns dafür ein, die Verbreitung auf unseren Plattformen zu verhindern“, sagte Google-Sprecherin Christa Muldoon in einer per E-Mail gesendeten Erklärung an Der Rand. „Wir befolgen das US-Recht bei der Definition, was CSAM ausmacht, und verwenden eine Kombination aus Hash-Matching-Technologie und künstlicher Intelligenz, um es zu identifizieren und von unseren Plattformen zu entfernen. Darüber hinaus überprüft unser Team von Kindersicherheitsexperten markierte Inhalte auf Richtigkeit und konsultiert Kinderärzte, um sicherzustellen, dass wir Fälle identifizieren können, in denen Benutzer möglicherweise medizinischen Rat suchen.“

Während der Schutz von Kindern vor Missbrauch unbestreitbar wichtig ist, argumentieren Kritiker, dass die Praxis, die Fotos eines Benutzers zu scannen, unangemessen in ihre Privatsphäre eingreift. Jon Callas, ein Direktor für Technologieprojekte bei der EFF, bezeichnete Googles Praktiken in einer Erklärung gegenüber dem als „aufdringlich“. NYT. „Das ist genau der Albtraum, der uns alle beschäftigt“, sagte Callas NYT. „Sie scannen mein Familienalbum und dann bekomme ich Ärger.“

Quellenlink