Ist Künstliche Intelligenz selbst eine Gefahr?

Warum Facebook bei uns keine Selbstmörder rettet

Selbstmord im Live-Stream? Leider gab es das bereits auf Facebook und Facebook reagiert. Mit künstlicher Intelligenz will Facebook Selbstmorde frühzeitig erkennen, Hilfe bieten und Helfer vor Ort lokalisieren. Weltweit? Nun ja, nicht ganz ...

Datum:
Facebook will Selbstmorde verhindern

Wer bei Facebook Live streamt und Selbstmordgedanken äußert, bekommt Hilfeangebote angezeigt.

Je größer Facebook wird, desto mehr Menschen – so scheint es – nutzen die vermeintliche öffentliche Aufmerksamkeit für gewalttätige und traumatisierende Inhalte – sogar im Live-Stream. Ein Problem, das Facebook nicht unbeachtet lassen kann. Im Mai erst kündigte Facebook an, 3.000 neue Mitarbeiter für die Kontrolle von problematischen Inhalten einzustellen. Allein in Deutschland hat Facebook 31 Millionen Nutzer. Weltweit sind es rund zwei Milliarden Menschen, die Facebook nutzen. Da müssen auch automatische Lösungen für spezifische Probleme her. Eines davon: Selbstmordankündigungen oder gar Selbstmord-Videoübertragungen. Erst Ende Oktober erschoss sich ein türkischer Vater im Live-Stream von Facebook, da seine Tochter sich ohne seine Zustimmung verlobte. Bekannte hatten versucht, den Mann über Facebook vom Selbstmord abzuhalten. Nicht der erste Fall dieser Art. Nun arbeitet Facebook mithilfe von künstlicher Intelligenz an der Früherkennung von Selbstmord – nur nicht in Europa.

Facebook rollt weltweit Selbstmord-Früherkennung aus

Facebooks neue Selbstmord-Früherkennung

Nutzer können schon lange Inhalte melden. Die Hilfestellungen von Facebook werden jedoch immer zielgerichteter auf die aktuelle Situation.

Seit gestern rollt Facebook nun international seine Echtzeit-Hilfe für Selbstmordgefährdete aus. Künstliche Intelligenz soll dabei z.B. bestimmte Wörter oder Sätze erkennen, die auf eine ernste Situation hinweisen. „Alles okay bei dir?” oder „Brauchst du Hilfe?” in den Kommentaren sind Beispiele hierfür. Erkennt der Facebook-Algorithmus eine mögliche Selbstmordankündigung oder wurde diese durch einen Nutzer gemeldet, so blendet Facebook z.B. in einem Live-Stream Hilfeangebote für den Betroffenen ein. „Kontaktiere eine Hilfe-Hotline” oder „Sprich mit einem Freund” sind solche Angebote. Zusätzlich gibt es Informationen für Helfer vor Ort. Und Facebook-Moderatoren sollen nun schneller eingreifen und einen Ersthelfer identifizieren können. Klingt zunächst einmal alles nach einer sinnvollen Funktion. Wäre da nicht der Datenschutz ...

Keine Selbstmord-Früherkennung in der EU

Mit seiner neuen automatisierten Funktion dringt Facebook tiefer in die Privatsphäre seiner Nutzer ein. Auch wenn es dem Wohl der Nutzer dient, werden sich wahrscheinlich vor allem Nutzer in Europa mit diesem Gedanken nicht wohl fühlen. Daher rollt Facebook die neue Funktion in der EU gar nicht erst aus. Ein Aufschrei der Datenschützer wäre programmiert. Schließlich weiß man nicht, was die künstliche Intelligenz alles auswertet: politische Gesinnung, religiöse Überzeugungen, Sexualität. All das und mehr könnte Facebook aus den Daten herausfiltern, wenn es Facebook nicht schon längst bekannt ist. „Big brother is watching you” ist dann nicht mehr weit weg, möchte man verschwörerisch meinen. Doch das Problem bleibt: Wie soll Facebook mit Selbstmorden im Live-Stream umgehen? Nichtstun ist keine Option. Also doch die „Datenkrake” rauslassen? Ein Opt-out bietet Facebook für die neue Funktion natürlich nicht. Das würde den Sinn der Funktion auch torpedieren. Es bleibt schwierig. Wer Menschen kennt, die selbstmordgefährdet sind, ist vielleicht dankbar über einen akuten Hinweis. Selbst überwacht werden, möchte dagegen keiner ...
Anja Schmidt

von

Redakteurin Connected World. Die 156 Apps auf meinem Smartphone nutze ich wirklich. Meine Schwäche: Gadgets und smarte Technik.