Facebook erkennt Selbstmordabsichten über AI und hilft weltweit – nur nicht in der EU!

„proactive detection“ nennt Facebook seine neue AI-Technologie. Der Begriff erinnert an Ansätze, Straftaten vor der Begehung zu verhindern – wie es in Science-Fiction-Filmen vorgeführt und in aktuellen Forschungsprojekten untersucht wird. Artificial Intelligence (AI) ist eine Subdisziplin der Informatik, die sich mit der Automatisierung intelligenten Verhaltens befasst.

Facebooks neue AI-Anwendung soll jedoch suizidales Verhalten erkennen und eine Intervention noch vor der Vollendung des Selbstmordes ermöglichen. Dazu werden alle Beiträge der User gescannt und auf Muster hin untersucht, die einen bevorstehenden Suizid nahe legen. Schlägt die künstliche Intelligenz an, tritt ein geschulter Facebook-Moderator in Aktion, der als Mensch die verdächtigen Beiträge liest und Helfer sowie lokale Behörden bzw. FB-Freunde (dazu gehören auch oft Familienmitglieder) des Betroffenen informieren kann.

„We are starting to roll out artificial intelligence outside the US to help identify when someone might be expressing thoughts of suicide, including on Facebook Live. This will eventually be available worldwide, except the EU.“ (Guy Rosen, Facebook-VP of Product Management, 27.11.17)

EU-Staaten sind vom „proactive detection“-Service ausgeschlossen. Dies war bereits bei vorangegangen Projekten der Fall, die seit Jahresbeginn entwicklungsbegleitend durchgeführt wurden und Facebook-Posts wie auch Messenger-Nachrichten auf Auffälligkeiten hin durchforsteten. Insbesondere das automatisierte Durchsuchen von Messenger-Nachrichten, die eine geschützte nicht-öffentliche Kommunikation zwischen zwei oder mehr Personen darstellen, ist mit EU-Datenschutzrecht nicht vereinbar.

Zwar wäre es denkbar gewesen, Zustimmungen der Betroffenen in der EU einzuholen und diese als freiwillige Teilnehmer in die Entwicklung einzubeziehen, diese Mühe wollte sich Facebook aber wohl nicht machen. Möglicherweise spielen hier auch Proteststürme aus der Vergangenheit eine Rolle, die aus Sicht von Facebook die EU als Datenschutz-affine und damit „schwierige“ Region auszeichnen. Zudem muss man auch aus wissenschaftlicher Sicht einräumen, dass eine Datenerhebung allein bei Personen, die sich freiwillig beteiligen, nicht in allen AI-Anwendungen sinnvoll ist. Betroffene, die tatsächlich Selbstmordabsichten hegen und von der Tat nicht abgehalten werden wollen, würden sich kaum am Service beteiligen, was ihn letztlich ad absurdum führte.

Die Wirksamkeit der neuen AI steht laut Facebook außer Zweifel. Mark Zuckerberg äußerte sich persönlich zum neuen Service in einem öffentlichen Facebook-Post.

„Starting today we’re upgrading our AI tools to identify when someone is expressing thoughts about suicide on Facebook so we can help get them the support they need quickly. In the last month alone, these AI tools have helped us connect with first responders quickly more than 100 times.

 

With all the fear about how AI may be harmful in the future, it’s good to remind ourselves how AI is actually helping save people’s lives today.“ (Mark Zuckerberg, 27.11.17)

Facebook führt das Projekt in Kooperation mit angesehen Institutionen durch, was den Vorwurf, allzu experimentierfreudig mit AI-Technologien zu sein, entkräften dürfte. Genannt wurden „Crisis Text Line“, „National Eating Disorder Association“ und „National Suicide Prevention Lifeline“. Diese Kooperationen ermöglichen neben einer Validierung der algorithmischen Entscheidungen eine direkte Kontaktaufnahme zum Betroffenen, die von geschultem Personal initiiert wird.

Alex Stamos (Facebook-CSO) äußerte sich auf Twitter zu den Ängsten, die AI-Anwendungen oft auslösen, und plädiert für eine Abwägung von Nutzen und Risiken.

Innerhalb der EU dürfte die Neuerung mit gemischten Gefühlen betrachtet werden. Einerseits ist es aus europäischer Sicht positiv, zu sehen, dass Facebook bei seinen Entwicklungen rechtliche Besonderheiten und datenschutzfreundliche Grundhaltungen in einigen EU-Staaten berücksichtigt, andererseits steigt nun der Druck auf Gesetzgeber, Ausnahmetatbestände bei der automatisierten Verarbeitung von personenbezogenen Daten im Interesse der Betroffenen zu schaffen. AI-Anwendungen können sowohl entsetzliche Auswirkungen auf die Privatsphäre des Menschen und seine freie Entfaltung haben als auch äußerst nützlich sein, um Schaden vom selben Menschen abzuwenden. Eine Regulierung mit Fingerspitzengefühl und Weitsicht wird benötigt.

”The purpose of computing is insight, not numbers.” (Richard Hamming) Ulrich Greveler studierte in Gießen Mathematik und Informatik, arbeitete sechs Jahre in der Industrie im In- und Ausland, bevor er als Wissenschaftler an die Ruhr-Universität nach Bochum wechselte. Seit 2006 lehrt er Informatik mit dem Schwerpunkt IT-Sicherheit an der Fachhochschule Münster (bis 03/2012) und der Hochschule Rhein-Waal (seit 03/2012). Sein besonderes Interesse gilt datenschutzfördernden Technologien und dem Spannungsverhältnis zwischen Privatsphäre und digitaler Vernetzung.

4 Kommentare Schreibe einen Kommentar

  1. Gibt es Zahlen, wie viele Selbsttötungen dank AI bislang verhindert werden konnten? Und wie lange wurden diese Personen nach der Intervention noch beobachtet?

  2. An der Wirksamkeit der automatischen Entdeckung von Suizidabsichten zweifle ich nicht, denn 50-70% der Suizidalen geben Warnhinweise an Freunde oder Bekannte und heute geschieht jede Mitteilung immer mehr über ein Internetmedium (Messemger, Facebook, etc). Selbst wenn nur 5% der Suizidslen das über Internet tun, kommt man in kurzer Zeit auf die von Facebook behaupteten bereits 100 entdeckten Fälle.
    Ich sehe auch kein Problem dabei, wenn Facebook die Daten nicht auch für andere Zwecke verwenden würde.

  3. @Martin Holzherr

    Die Aussage, dass dank des Systems in einem Monat mehr als 100 Mal mit Ersthelfern Kontakt aufgenommen werden konnte, heißt ja nicht, dass über 100 Mal ein Suizid verhindert wurde.

    Ohne genaue Daten hake ich das Ganze zunächst mal unter Marketing ab.

  4. proactive detection hat ein Doppelgesicht. Wer garantiert, dass die Möglichkeit Menschen zu analysieren nicht ausgenützt wird. Ich denke zuerst an Werbezwecke. Wer sich mit dem Dicksein plagt, wird in home blogs offen darüber reden.
    Die Daten können auch im Rahmen einer Rasterfahndung verwendet werden. Alles noch akzeptabel.
    Was aber , wenn so ein Programm gehackt wird und die Daten in kriminelle Hände gelangen?

Schreibe einen Kommentar