Manipulierte Facebook-Nutzer und unethische Forschung
BLOG: Fischblog
Dass man auf Facebook als Nutzer mehr oder weniger ausgeliefert ist, das wissen wir schon. Aber das, was jetzt rausgekommen ist, das hat schon eine neue Qualität. Im Auftrag von drei Forschern hat Facebook gezielt Emotionen manipuliert – ohne die Betroffenen über das Experiment zu informieren. Fast 700.000 Nutzer sind so zu unfreiwilligen Versuchskaninchen geworden. Deswegen sind ziemlich viele Menschen ziemlich sauer, und zwar zu Recht.
Die Sache ist sogar noch schlimmer, denn ganz offensichtlich haben die Wissenschaftler die Ethikregeln für Menschenversuche regelrecht ausgehebelt, indem sie sich hinter Facebook verstecken. Die Argumentation, mit der die Ethikkommission dieses Experiment genehmigt hat ist berichten zufolge nämlich ganz schlicht: Facebook macht das doch eh schon die ganze Zeit.
Ganz falsch ist das nicht. Ein Teil der unfreiwilligen Versuchskaninchen bekam selektiv eine Auswahl negativer Meldungen aus dem Freundeskreis, die anderen bevorzugt positive Updates, eine Woche lang. Anschließend werteten die drei Wissenschaftler die Statusmeldungen der Opfer nach emotionalem Content aus. Mit dem Experiment wollten die beteiligten Wissenschaftler zeigen, dass Emotionen auch in sozialen Medien ansteckend sind. Wenn ich quasi auf der Straße einen Freund treffe und der ist schlecht drauf, dann zieht das auch mich selbst runter. Und auch dauerhaftere Zustände wie Angst und Depressionen setzen dich durch Freundschaftsnetzwerke hindurch fort. Aber wie ist das bei Facebook?
Das Ergebnis der Studie ist wenig überraschend: Eine positive Timeline erzeugt positive Postings und umgekehrt. Allerdings, und das erwähnen die meisten Berichte nicht, ist der Effekt winzig: Der Emotionsgehalt der Updates veränderte sich um zwei Prozent der Standardabweichung. Das ist auch nur deswegen signifikant, weil eben Hunderttausende mitmachen. Insofern dürften die Wissenschaftler niemanden aus der Negativ-Gruppe in den Suizid getrieben haben oder so…
Aber wie groß der Effekt ist, das ist auch gar nicht der Punkt: Die unfreiwilligen Probanden sind nicht nur beobachtet worden, sondern ohne ihr Wissen gezielt manipuliert. Da hört der Spaß auf. Und dass Facebook das sowieso macht ist auch kein Argument. Es stimmt zwar, dass die Nutzer nur eine anders eingeschränkte Auswahl der Statusupdates ihrer Kontakte gesehen haben, als der Algorithmus unter normalen Umständen generiert hätte. Aber anders als im Normalbetrieb sind die Auftraggeber hier Wissenschaftler – und in der Wissenschaft gibt es Regeln für sowas.
Nicht ohne Grund ist es heute bei Experimenten mit Menschen zwingend vorgeschrieben, die Beteiligten nicht nur zu informieren, sondern auch ihr Einverständnis einzuholen. Man darf die Leute über die Natur des Experiments in die Irre führen (was oft notwendig ist, um das Ergebnis nicht zu beeinflussen), aber man muss sie unbedingt informieren.
Es reicht halt nicht, dass Ethikregeln für die Wissenschaft irgendwo sympathisch auf dem Papier stehen, man muss sich auch daran halten, und zwar nicht nur formaljuristisch, sondern mit voller Verantwortung auch für das Verhalten anderer. Denn wenn Wissenschaftler sich für problematische Experimente einfach Akteure suchen können, die nicht an solche Regeln gebunden sind, dann können wir es auch gleich ganz lassen.
Ich würde in der Kritik insgesamt sogar noch etwas weiter gehen:
Das Experiment kann womöglich für einige Menschen oder deren Umgebung schlimme Folgen haben. Z.B. könnte der negativ beeinflußte Nutzer zu solchen negativen Posts getrieben werden, die ihn in Streit mit anderen geraten lassen, dies könnte eskalieren etc.. Oder ein solcher Nutzer “kommt immer mieser drauf”, eckt bei seiner Arbeit an etc.. Weiteres bis hin zu Selbstmordgedanken ist durchaus denkbar.
Da ist insgesamt sehr vieles denkbar – bei beiden Arten der Beeinflussung – was Einfluß auf das weitere Leben der Opfer hat.
Hoffentlich werden die Betroffenen wenigstens im Nachhinein informiert.
Das ist zwar theoretisch möglich, halte ich angesichts der geringen Größe des Gesamteffekts allerdings für unwahrscheinlich.
Immerhin dürfte dieser Vorfall das Nachdenken bei einigen Menschen fördern…
Wann werden soziale Medien in der Lage sein, nicht nur Stimmungen und Konsumverhalten zu verändern – sondern z.B. auch Wahlen?
Jetzt…
Und ich meine: Die Leute, die drüber nachdenken müssten werden da nicht dabei sein. Die werden nach wie vor die BILD lesen…
Der Punkt ist doch: Wenn Facebook es für nötig hält, zum Beispiel im patriotischen Sinne Diskussionen über Militäreinsätze entsprechend zu filtern, werden sie das noch nicht mal öffentlich machen. Und die Verquickung von Wissenschaft und Kommerz wird auch dann noch funktionieren. Wissenschaft im Dienste des Vaterlands quasi.
Das ist natürlich ein Problem, aber letztendlich nicht zu verhindern. Außer man zwingt FB, seine Algorithmen offen zu legen. Mir geht es allerdings hier explizit um die Frage nach der Wissenschaft.
Pingback:Ins Netz gegangen (30.6.) — »Nächstens mehr.«
Sehr interessante Schilderung eines Vorfalls, den der Schreiber dieser Zeilen bisher nicht umfänglich bearbeitet hat, Frage: Welche ‘Ethikkomission’ hat das Vorhaben vorab gebilligt (“IRBs”)?
MFG
Dr. W (der’s noch nicht ganz geblickt hat)
* ‘Ethikkommission’
Hier zwei Links zu Berichten, die das mit der Ethikkommission etwas differenzierter beleuchten. IRB (Cornell) hat zwar die Auswertung, nicht aber das Einholen der Daten bewilligt:
http://www.forbes.com/sites/kashmirhill/2014/06/29/facebook-doesnt-understand-the-fuss-about-its-emotion-manipulation-study/
http://www.washingtonpost.com/news/morning-mix/wp/2014/06/30/facebook-responds-to-criticism-of-study-that-manipulated-users-news-feeds/
Pingback:Must reads zum Facebook-Experiment mit den manipulierten Newsfeeds
Dann ist also jeglicher A/B-Test ethisch verwerflich. Jegliche Webseite betreibt hunderte oder tausende davon, und beobachtet das Verhlaten der Benutzer. Ist das der Kern der Kritik?
Es ist letztlich A/B testing und die Frage wird aufgeworfen, welche Grenzen bestehen könnten, wenn ein Unternehmen wie Facebook die marketing-wissenschaftliche Bearbeitung erlaubt und deren Ergebnisse zur Veröffentlichung gelangen lässt.
Websites bzw. deren Betreiber betreiben ein derartiges Testing meist aber nicht, wie angedeutet, über allgemein zugängliche Inhalte, sondern, wenn überhaupt, per direkten Anschrieb, also per sogenannter Mailings.
Die im WebLog-Artikel aufgeworfene sittliche Fragestellung ist schon interessant.
HTH
Dr. W
Pingback:Links & Stuff / Arbeitsblog
Pingback:Psychologische Experimente bei Facebook | neurotroph
Pingback:Markierungen 07/01/2014 | Snippets
Nein, der Kern der Kritik ist, dass es in der Wissenschaft Regeln für Experimente mit Menschen gibt, an die sich die Leute zu halten haben. Und eine davon ist informed consent. Was irgendwelche Webseiten ansonsten tun oder nicht tun, ist dafür nicht relevant. Die Beteiligung nicht-wissenschaftlicher Akteure enthebt die beteiligten Forscher nicht der Verpflichtung, sich an Regeln zu halten.
Facebook ist nicht Teil von “Wissenschaft”. Genausowenig wie der Kaufmann von nebenan. Wenn der durch eine besondere Gestaltung seiner Auslage eine Experiment mit Menschen macht (“dann wollen wir mal sehen, ob jetzt mehr gekauft wird …”), dann braucht der selbstverständlich die Kunden nicht darüber zu informieren, welche Tricks der Schauwerbegestalter, der einen wissenschaftlichen Abschluss (Psychologie) besitzt, bei der Fensterdeko in Anschlag gebracht hat.
Hier geht es doch gar nicht um wissenschaftliche Ethik und informed consent, sondern darum, dass sich die Nutzerschar eines Dienstes, den sie nicht mehr missen wollen (Gewöhnung) oder können (Sucht), enttäuscht und hintergangen fühlen. Daher wallt nun Empörung auf und einige melden sich ab (was ich für die richtige Verhaltensweise halte, noch richtiger wäre es natürlich gewesen, sich gar nicht erst anzumelden).
Warum es nicht um ein (vermeintliches) Fehlverhalten von Wissenschaftspersonal geht, kann man sich schon daran klarmachen, dass die Empörung auch bestünde, wenn überhaupt kein Wissenschaftler an diesem Vorhaben beteiligt gewesen wäre.
Nochmal: Jegliche Webseite fuehrt zig oder zig Tausende dieser Experimente taeglich durch. Jegliche Werbung ist ein Experiment dieser Art etc. pp.
Wenn wir uns also darauf einigen, dass die Annahme der Facebook-Regeln Zustimmung bedeutet, warum auch immer, bleiben also zwei Moeglichkeiten, die sich nicht ausschliessen:
a) Wir Data Scientists sind keine richtigen Wissenschaftler_innen (scheinbar, das deutet ja “Die Beteiligung nicht-wissenschaftlicher Akteure” an…
b) Jegliches dieser Experimente ist moralisch verwerflich
Welche davon sind wahr?
Pingback:die ennomane » Links der Woche
Pingback:Hei_PI: Psychologisches Institut Heidelberg : Facebook und die Emotionen
Das Facebook solche Versuche zu lässt ist längst bekannt und auch nachvollziehbar! Nach Amerikanischem Recht können sie alles tun und lassen was sie wollen! Wir alle die auf FB sind haben den AGB’s zugestimmt und obwohl FB mittlerweile immer mehr in der öffentlichen Kritik steht, schadet es denen nicht! Denn wenn 100 User ihren Accoutn löschen kommen 300 hinzu und das im gleichen Augenblick!
Das ist doch genau das, was die mit der Veröffentlichung von solchen, eigentlich schockierenden, Meldungen erreichen wollen. Die Leute sollen sich an diese Meldungen gewöhnen und in eine Art Starre verfallen. Die Politik müsste hier für nichtinformierte Menschen eine Art Vorbildfunktion erfüllen und handeln oder wenigstens (echte) Empörung zeigen. Nichts davon passiert. Wer nicht ideologisch aufrichtig oder mündig ist, verfällt schnell in die Denkweise “man kann ja eh nichts machen”. Das ist gefährlich. Wer mündig ist, lässt sich auf diese “das ist doch längst bekannt”-Schiene nicht ein.
In Amerika wird auch jeder möglich Sachverhalt in den Zeitungen mit “War” betitelt, sodass der eigentliche “War” an Schrecken verliert. Das ist Methode.