Der am 27.02. veröffentlichte Bericht beleuchtet die verborgene menschliche Arbeit hinter Metas Vorstoß in tragbare künstliche Intelligenz und wirft neue Fragen aufDer am 27.02. veröffentlichte Bericht beleuchtet die verborgene menschliche Arbeit hinter Metas Vorstoß in tragbare künstliche Intelligenz und wirft neue Fragen auf

Kenianische Arbeiter, die Metas KI-Brille trainieren, sagen, sie sehen die intimsten Momente der Nutzer

2026/03/04 17:01
4 Min. Lesezeit
Bei Feedback oder Anliegen zu diesem Inhalt kontaktieren Sie uns bitte unter [email protected]

Eine Untersuchung der schwedischen Zeitungen Svenska Dagbladet und Göteborgs-Posten hat ergeben, dass Vertragsarbeiter in Kenia, die von Sama – einem kenianischen Outsourcing-Unternehmen, das Datenannotationsdienste bereitstellt – eingestellt wurden, um die KI-Systeme von Meta Platforms zu trainieren, stark persönlichen Bildern und Videos ausgesetzt sind, die von Nutzern der Ray-Ban-Smartwatch des Unternehmens aufgenommen wurden.

Der am 27. Februar veröffentlichte Bericht beleuchtet die versteckte menschliche Arbeit hinter Metas Vorstoß in tragbare künstliche Intelligenz und wirft neue Fragen über Datenschutz, grenzüberschreitende Datenübertragungen und die psychische Belastung der Content-Moderatoren auf, die für Sama in Nairobi arbeiten.

Metas Ray-Ban-Smartwatch, die in Partnerschaft mit EssilorLuxottica entwickelt wurde, wird als KI-gesteuerter Assistent vermarktet, der Sprachen übersetzen, die Umgebung beschreiben, freihändige Fotos und Videos aufnehmen und Fragen zu dem beantworten kann, was ein Benutzer sieht.

Doch jenseits des futuristischen Versprechens enthüllten Interviews mit aktuellen und ehemaligen Mitarbeitern von Sama und Meta durch Svenska Dagbladet, dass die durch die Brille aufgenommenen Aufnahmen Tausende von Kilometern entfernt in Kenia landen, wo Datenannotatoren sie überprüfen und kennzeichnen, um die Leistung des Systems zu verbessern.

Datenschutz, stillschweigend verletzt

Mehrere kenianische Arbeiter erzählten der schwedischen Zeitung, dass sie im Rahmen ihrer Arbeit regelmäßig auf sensibles Material stoßen, darunter alltägliche Haushaltsszenen bis hin zu intimen Momenten, von denen die Nutzer möglicherweise nicht wussten, dass sie aufgenommen wurden.

In einigen Fällen, so sagten die Arbeiter, enthalten die Aufnahmen Finanzinformationen wie Bankkarten, die im Bild sichtbar sind, oder Aufzeichnungen, die in privaten Räumen wie Schlafzimmern und Badezimmern gemacht wurden.

„In einigen Videos kann man jemanden auf die Toilette gehen oder sich ausziehen sehen", sagte ein Sama-Arbeiter den Reportern. „Ich glaube nicht, dass sie es wissen, denn wenn sie es wüssten, würden sie nicht aufnehmen."

Ein anderer Auftragnehmer behauptete, er habe Aufnahmen überprüft, die zeigten, wie der Träger der Brille sie auf einem Nachttisch ablegte, nur damit seine Frau ins Zimmer kam und sich auszog, vermutlich ohne zu wissen, dass sie beobachtet wurde. Andere Aufnahmen zeigten Berichten zufolge, wie der Träger Pornos schaute oder sich sogar beim Sex filmte

Laut der Untersuchung gab es wenig Transparenz bei den Wearables. Einzelhändler in Europa gaben Berichten zufolge widersprüchliche Informationen darüber, ob die von der Brille erfassten Daten auf dem Gerät verbleiben oder an die Server von Meta übertragen werden. Unabhängige Tests, die im Bericht zitiert werden, zeigten, dass viele der KI-Funktionen der Brille Cloud-Konnektivität erfordern, was bedeutet, dass Bilder und Spracheingaben remote und nicht lokal auf dem Gerät verarbeitet werden können.

Die Sama-Verbindung

Sama, ehemals Samasource, bietet Datenannotationsdienste für große Technologieunternehmen wie Meta und OpenAI an. Das Unternehmen wurde in der Vergangenheit bei einigen seiner Verträge, insbesondere mit OpenAI, beschuldigt, gegen Arbeitsvorschriften verstoßen zu haben.

Sama verlangt strenge Vertraulichkeitsvereinbarungen, die einschränken, was Mitarbeiter öffentlich bekannt geben können. Aber die von den schwedischen Zeitungen veröffentlichten Berichte deuten darauf hin, dass das Versprechen reibungsloser KI von einem Arbeitssystem angetrieben wird, in dem menschliche Prüfer große Mengen an rohen, ungefilterten Daten durchsieben, damit Algorithmen lernen können, Objekte, Umgebungen und Kontext zu erkennen.

Meta gibt in seinen Datenschutzrichtlinien an, dass Benutzerinhalte einer menschlichen Überprüfung unterzogen werden können, um Produkte zu verbessern und Sicherheit zu gewährleisten. Für europäische Benutzer ist die irische Tochtergesellschaft des Unternehmens für die Einhaltung der Datenschutz-Grundverordnung (DSGVO) der EU verantwortlich.

Die Untersuchung wirft jedoch Fragen darauf auf, wie in Europa oder den Vereinigten Staaten gesammelte Daten in Länder wie Kenia übertragen und verarbeitet werden, die keinen Angemessenheitsbeschluss der EU haben, der ihre Datenschutzregime als gleichwertig zur DSGVO anerkennt.

Während Datenannotation, Content-Moderation und KI-Training für Nairobis Technologie-Ambitionen kritisch geworden sind, gehen diese Jobs – hauptsächlich für Studenten und junge Absolventen – mit niedriger Bezahlung, hoher Arbeitsbelastung und der Exposition gegenüber verstörendem Material einher.

Meta hat seine Praktiken in früheren öffentlichen Erklärungen verteidigt und erklärt, dass es in Datenschutzmaßnahmen investiert und die Menge der für das Training verwendeten Daten minimiert. Dennoch legen die von den schwedischen Zeitungen veröffentlichten Berichte nahe, dass die Grenze zwischen automatisierter Intelligenz und menschlicher Aufsicht verschwommener ist, als viele Verbraucher annehmen.

Marktchance
CROSS Logo
CROSS Kurs(CROSS)
$0.07115
$0.07115$0.07115
+1.38%
USD
CROSS (CROSS) Echtzeit-Preis-Diagramm
Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an [email protected] um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.