Whatsapp-Datenschutzlüge: Mitarbeiter fürs Lesen von Nachrichten bezahlt

Whatsapp-Chats sind nicht so sicher, wie gedacht

Bei der Übertragung unserer Chats bei Whatsapp kann sie niemand mitlesen, diese Tatsache ist Facebook sehr wichtig. Ein aktueller Bericht zeigt nun: Es gibt Ausnahmen.

Facebook hat sein Versprechen bezüglich der Nutzerprivatsphäre nicht eingehalten

Geht es um Privatsphäre, hat Facebook nicht den besten Ruf, das musste selbst Gründer und CEO Mark Zuckerberg bereits zugeben. Weil sich die Nutzer bei einem Messenger aber wohl fühlen müssen, legte der Konzern viel Wert darauf, dass die Nachrichten bei Whatsapp durch Ende-zu-Ende-Verschlüsselung nicht mitlesbar sind. „Nicht mal von Facebook“, erklären die Chats selbst. Und trotzdem beschäftigt der Konzern über 1000 Mitarbeiter, die genau das tun.

Das berichtet die US-Nachrichtenseite „Pro Publica“. Demnach sitzen diese von Facebook beauftragten Personen rund um die Welt, um Millionen von Nachrichten, Fotos und Videos zu überprüfen, die über Whatsapp verschickt wurden. Das Ziel: „Unangemessene Inhalte“ aufzustöbern.

Facebook hat Angestellte zum Lesen von Nachrichten

Die lassen sich bei Whatsapp wie bei Facebook oder Instagram melden. Markiert ein Nutzer eine Nachricht, ein Foto oder Video als „unangemessen“, wird der Inhalt und der umgebende Chat an Facebook weitergeleitet. Von externen Mitarbeitern wird letztlich bewertet, ob es sich um Betrugsversuche, Kinderpornografie oder mögliche Terrorpläne handelt, so „Pro Publica“.

Recherchen der Seite nach ähnelt der Job sehr Moderationsaufgaben bei anderen Online-Diensten. Für einen Lohn ab 16,50 Dollar hätten die 29 befragten Moderatoren in Büros und während der Pandemie auch zu Hause reihenweise Beschwerden ab. Bis zu 600 solcher Tickets schaffen sie am Tag, das entspricht einer durchschnittlichen Bearbeitungszeit von unter einer Minute. Die Arbeitsgeschwindigkeit wird dabei überwacht.

RTL.de empfiehlt

So prüft Whatsapp die Nachrichten

Der Ablauf ist stets der gleiche. Markiert ein Nutzer eine Nachricht als unangemessen, werden diese und die vorangehenden vier Nachrichten unverschlüsselt an Facebook geschickt – inklusive Fotos und Videos. Dann werden sie einzelnen Moderatoren zugeordnet.

Etwas problematischer erscheinen „proaktive“ Meldungen. Hier erfolgt die Meldung nicht durch die Nutzer, sondern über künstliche Intelligenz, die automatisiert Chats und Inhalte auswertet und mit problematischen Inhalten abgleicht. Dabei bewertet die KI nicht nur die Nutzer-Informationen, sondern auch die Frequenz der abgeschickten Nachrichten, benutzte Begriffe oder bereits als problematisch bekannte Medien. Denkbar sind Betrugsversuche oder die Weitergabe illegaler Aufnahmen. Apple hatte gerade wegen einer solchen automatischen Suche auf dem iPhone mit massiven PR-Problemen zu kämpfen, obwohl das Ausmaß der Suche erheblich geringer war als die nun bei Facebook beschriebene.

Einmal in den Händen der Moderatoren, müssen die nun die Nachricht bewerten – und entscheiden, ob der Nutzer weiter beobachtet oder gar gebannt werden muss. Dabei haben es die Moderatoren nicht einfach. „Pro Publica“ wurde berichtet, dass bei Kinderpornografie-Verdacht das Alter der gezeigten Person geschätzt werden musste, bei einem möglichen Enthauptungsvideo sollte die Echtheit der Leiche bewertet werden. Hinzu kommen kleinere Hürden wie Sprachbarrieren, die von den angebotenen Tools nicht immer im notwendigen Maße behoben werden. Ein Moderator erzählte etwa, das Programm habe versucht, arabischen Text als Spanisch zu übersetzen.

Vorwürfe von Whatsapp bestätigt

Mit den Vorwürfen konfrontiert, bestätige Facebooks PR-Chef Carl Woog gegenüber der Seite die Existenz der Teams, die Inhalte begutachten. Man wolle so „die schlimmsten“ Täter erwischen und aussperren, erklärte er. Allerdings betonte Woog, dass der Konzern das nicht als Inhalte-Moderation betrachte. „Diesen Begriff benutzen wir bei Whatsapp normalerweise nicht“, erklärte er. Dem Konzern gehe es darum, den Dienst zuverlässig betreiben und Missbrauch verhindern zu können, während man die Privatsphäre wahre, so der Konzern.

Tatsächlich widerspricht die Umsetzung der Moderation nicht zwangsläufig den Aussagen zur Ende-zu-Ende-Verschlüsselung. Die verspricht nur, dass die Nachrichten nicht während der Übertragung auslesbar sind. Spätestens auf dem Gerät müssen sie entschlüsselt werden – sonst könnten sie den Nutzern ja gar nicht angezeigt werden. Werden wirklich nur die als unangemessenen gemeldeten Inhalte weitergegeben, wäre die übrige Kommunikation weiter geschützt. Überprüfen lässt sich das aber nicht.

Neben den Chats werden auch andere Daten gesammelt

Dem Konzern scheint ohnehin durchaus bewusst zu sein, dass die Nutzer diese Darstellung hinterfragen könnten. Während für Instagram im Rahmen des Transparenzberichts klare Zahlen zur Moderation der Inhalte zur Verfügung stehen, gibt es einen solchen Bericht für Whatsapp nicht. Die Signalwirkung, dass der Konzern selbst in sehr eingeschränkten Fällen eben doch mitlesen kann, dürfte dem fragilen Ruf des Messengers kaum helfen.

Denn schon jetzt gilt Whatsapp im Vergleich zu anderen Messengern als Datenkrake. Mit der Auswertung der sogenannten Metadaten, die um die Chats herum entstehen, kann Facebook weitreichende Zusammenhänge über die Chatenden herauslesen. Wer nur gelegentlich mal während der Arbeitszeit eine Nachricht hin- und herschickt, hat für einen Menschen schließlich eine ganz andere Bedeutung als die Person, die regelmäßig abends in derselben Wohnung ist und auch mal nachts einen Videoanruf erhält.

Hinzu kommen Daten wie das Profilbild, die Gruppennamen sowie der Zugriff auf das gesamte Adressbuch. „Ein weiterer Aspekt sind weitergeleitete Nachrichten und Bilder. Auch hier kann Facebook verfolgen, wer sie wann teilte. Auch wenn der Inhalt der Nachrichten selbst nicht bekannt ist, verrät das viel über die Nutzer“, erklärt Sicherheits-Forscher Paul Rösler. „Wenn man genug Metadaten hat, braucht man den Inhalt nicht“, erklärte der ehemalige NSA Chefberater einmal. Der ehemalige CIA- und NSA-Chef General Michael Hayden brachte es noch drastischer auf den Punkt: „Wir töten auf Basis von Metadaten.“

AGBs wurden angepasst, da die Nutzer absprangen

Dass den Nutzer schon die jetzige Sammlung von Daten nicht gefällt, zeigte sich gerade erst im Frühjahr. Im Rahmen einer AGB-Änderung wollte Facebook die Kommunikation mit Unternehmen regeln. Schnell verbreitete sich, es ginge eigentlich um eine Zusammenlegung der Kundendaten zwischen Whatsapp, Facebook und Instagram. Die Nutzer liefen so scharenweise davon, dass Facebook die Frist zur Änderungs-Einwilligung zweimal verschob und sie letztlich freiwillig machte. Kein Wunder, dass man den Eindruck vermeiden will, dass der Konzern die Chats immer mitlesen kann.

Allerdings gäbe es zwei Optionen, mit denen Facebook das Vertrauen in Whatsapp leicht erhöhen könnte. Wirklich um Datenschutz bemühte Konkurrenten wie Signal sammeln deutlich weniger Daten, haben zudem den Quellcode offengelegt. Und können so glaubhaft beweisen, dass sie die Chats der Nutzer nicht sehen können. (stern.de/mma)

Hinweis: Dieser Artikel erschien zuerst bei stern.de.



Produktvergleiche

Gutscheine

Services


Quelle: Lesen Sie Vollen Artikel