Hass im Netz als Lehrstück: Wie berichtet man angemessen über eine Studie?

Zunächst einmal: Nach allem, was ich bislang über HateAid mitbekommen habe, ist das eine gute und unterstützenswerte Organisation. Ich habe den Namen der Organisation bislang vor allem im Kontext von Menschen auf Twitter gehört, die in schwer erträglicher Weise Hasskommentaren ausgesetzt waren und denen HateAid mit entsprechender Unterstützung geholfen hat – mit Beratung, mit Hilfe bei der Anzeigenerstellung und so weiter. Das bitte im Hinterkopf behalten, wenn es mir hier im folgenden zum einen um eine Hate-Aid-Pressemitteilung geht, zum anderen um die zum Teil einigermaßen irreführende Berichterstattung darüber. Hass im Netz ist ein Problem; Organisationen wie HateAid sind wichtig für Betroffene. An diesen grundlegenden Aussagen ändert meine Kritik an dieser speziellen Veröffentlichung von HateAid nichts. Und für die Berichterstattung darüber kann HateAid ja auch nur sehr bedingt etwas.

“massiv Ziel von Hass und Beleidigungen”

Es geht um eine Untersuchung zu Hass im Netz, zu der HateAid diese Pressemitteilung hier herausgegeben hat. “Digitale Gewalt im Wahlkampf”, mit einer Auswertung von Tweets. Und nein, am besten erstmal noch nicht auf das Link klicken; das Problems sieht man plastischer, wenn man sich erst nur anschaut, wie über die Studie berichtet wurde.

(Nachtrag: HateAid wie mich per E-Mail darauf hin, dass es selbstverständlich keine ausführliche Studie sei, sondern ein “auf Datenrecherchen basierendes Briefing zur Thematik“. Ich rede hier im folgenden weiterhin verkürzt von einer Studie, nicht zuletzt weil die Veröffentlichung in den genannten Zeitungsartikeln eben genau so rezipiert wurde, halte die Einschränkung – HateAid verwendet den Begriff “Studie” soweit ich sehen kann in der eigenen Pressemitteilung nicht – aber hier gerne fest.)

Dazu erst einmal der SPIEGEL, mit diesem Artikel hier: Obertitel “Internetkommentare gegen Spitzenkandidaten”, Kurzbeschreibung “Onlinehetze wird im Wahlkampf kaum thematisiert, dabei sind die Spitzenkandidaten massiv Ziel von Hass und Beleidigungen. Eine neue Studie zeigt, wer besonders betroffen ist.”

Der Artikel gibt dann in der Tat eine Reihe der Zahlen aus der Pressemitteilung wieder und referiert unter anderem den Umstand, dass “[l]aut der Erhebung von Hateaid Armin Laschet (CDU) insgesamt am häufigsten auf Twitter erwähnt” wurde, und “Darunter wiederum fanden sich »27.476 Kommentare mit potenziell beleidigender und verletzender Sprache«, heißt es in der Studie.” Man beachte die Formulierungen, die sind an dieser Stelle nämlich wichtig. Einen Absatz weiter wird es noch konkreter: Dort werden die entsprechenden Kommentare, sowohl gegen Laschet als auch gegen Baerbock und Scholz, dann allgemein die “hasserfüllten Kommentar[e] gegen die drei Spitzenkandidaten” genannt.

Der Titel des entsprechenden Tagesspiegel-Artikels ist noch eindeutiger: “Armin Laschet wird auf Twitter am häufigsten beleidigt”.

Soweit, so gut bzw. wie wir sehen werden: so ungut. Hier sind jedenfalls die entsprechenden Zahlen aus der Pressemitteilung, grafisch dargestellt:

Grafische Darstellung "Hass gegen Spitzenkandidat*innen" aus der HateAid-Pressemitteilung, mit den Zahlen der problematischen Kommentare als Kreisen.Da heißt es unten ja auch: Hass gegen Spitzenkandidat*innen. 27476 zu (gegen?) Laschet, 6690 gegen Scholz, 5524 gegen Baerbock. Die offenbar vom Nachwuchs eines/einer der Beteiligten mit Wachsmalstift eingezeichneten Tortendiagramm-Abschnitte geben jeweils an, welchen Prozentsatz der Kommentare das HateAid-Team als “aus einem rund 10.000 Accounts umfassenden rechten bis rechtsextremen Ökosystem auf Twitter” kommend identifiziert hat.

Auf der Suche nach der Methode

An der Stelle würde man bei der Berichterstattung über eine wissenschaftliche Studie sagen: OK, schauen wir uns doch mal den Fachartikel dazu an. Was in Pressemitteilungen steht ist ja oft noch eine etwas andere Sache, was Zeitungsberichte daraus machen kann noch einmal anders sein. In diesem Falle gibt es, soweit ich sehen kann, aber keinen ausführlichen Bericht, sondern nur die erwähnte Pressemitteilung von HateAid. Da stehen zur Methodik nur recht knappe Fußnoten. Zu den oben grafisch wiedergegebenen Zahlen, also den Zahlen, die auch die Berichterstattung thematisiert, heißt es da lakonisch: “KI-Auswertung, Erwähnungen im Kontext von Sprache, die gemäß Perspective API mit einer Wahrscheinlichkeit von mindestens 85 % beleidigend ist”.

“Perspective API”, das kann man durch googeln schnell herausfinden, ist ein von Google entwickeltes Softwaremodul mit dem Motto “Using Machine Learning to reduce Toxicity Online” – also: maschinelles Lernen nutzen um Online-Toxizität (gemeint sind insbesondere: beleidigende, verletzende Kommentare in Online-Kommentarspalten) zu reduzieren. Maschinelles Lernen kennt man ja derzeit aus einer ganzen Reihe spannender Kontexte. Dabei wird ein Computer nicht explizit programmiert, etwas zu tun, sondern es wird ihm an Beispielen beigebracht, was er zu tun hat. Einige der beeindruckendsten (und je nach Veranlagung beunruhigendsten) Dinge, die künstliche Intelligenz tun kann, etwa die höchst realistischen “transplantierten Gesichter” in Deepfake-Videos, beruhen auf Techniken dieser Art.

Der Abschnitt How it Works zeigt, was die API  im Einsatz kann: Kürzeren Texten werden “Scores” zugeordnet, also numerische Werte (wie es dort aussieht: von Null bis Eins), die die Einschätzung der Maschine angeben, ob es sich um einen “toxischen Kommentar” oder um eine Beleidigung oder um einen “Angriff auf die Identität” oder ähnliches handelt. Die Bewertung ihrerseits hängt davon ab, was die Maschine in der Trainingsphase gelernt hat. Da ist natürlich für jede Sprache ein eigenes Trainings-Set nötig.

Die Mini-Methodenbeschreibung hier scheint mir auszusagen: Hier wurde die Perspective-API auf Tweeets angesetzt um zu schauen, ob jene Tweets beleidigende Sprache (einer der “Scores” im Beispiel der How-It-Works-Seite) enthielten. Soweit, so gut. Welches Trainings-Set benutzt wurde, wäre hier einmal mehr interessant, aber solche Informationen liefert HateAid soweit ich sehen kann nicht.

Was ist der “Zusammenhang”?

Nun sind die Formulierungen an dieser Stelle in der Pressemitteilung, sowohl in der Fußnote als auch im Haupttext, in mehr als einer Hinsicht sehr vorsichtig. “Erwähnungen im Kontext von Sprache, die […] beleidigend ist” bzw. im Haupttext die Aussage beispielsweise zu Laschet, er sei “mit 27.476 entsprechenden Kommentaren […] am häufigsten im Zusammenhang mit potenziell beleidigender und verletzender Sprache genannt” worden. Da sollte man natürlich etwas hellhörig werden.

Was heißt denn “im Zusammenhang” an dieser Stelle? Ein fiktives Beispiel: Wenn ein Tweet lautet “Ich werde trotz der Plagiatsvorwürfe Annalena Baerbock wählen, du Idiot!” dann dürfte die Perspective-API jenen Tweet bei entsprechendem Training vermutlich als beleidigend erkennen. Ist er ja auch: Die Person, an die der Tweet gerichtet ist, wird als “Idiot” beleidigt. Und die beleidigende Sprache steht trotzdem “im Zusammenhang” mit Annalena Baerbock. Die entscheidende Frage ist: Wurden solche Tweets mitgezählt?

Ein anderes Beispiel: Wenn ich eine Twitter-Suche nach den Worten “Fresse” und “Laschet” mache, dann sind da selbstverständlich beleidigende Tweets gegen Armin Laschet zu finden. Insbesondere dass Laschet beim dritten Triell offenbar mehr als einmal weitergeredet hat, obwohl er gar nicht mehr dran war, hat genervte unhöfliche Twitternutzer mehr als einmal zu Formulierungen mit Variationen auf “Halt die Fresse” animiert. Zugegeben: Das dritte Triell fand nach dem Erhebungszeitraum statt; diese spezielle Situation wird also in den dort ausgewerteten Tweets also keine Rolle gespielt haben. Eine ganze Reihe der Tweets enthalten aber beispielsweise den Ausruf “Meine Fresse!” im Zusammenhang mit etwas, das Laschet getan hat, und analog bei Baerbock und Scholz.

“Fresse” wird in der HateAid-Pressemitteilung nun aber gleich an zweiter Stelle genannt, als von den dominierenden “potenziell beleidigenden, verletzenden oder hasserfüllten Begriffen” die Rede ist. Da fragt man sich natürlich sofort: Wurde “Meine Fresse!” da mitgezählt, wenn im Tweet zusätzlich einer der Spitzenkandidat*innen-Namen vorkam?

Ganz genau kann ich das allein anhand der Pressemitteilung nicht sagen. Und das ist mein Haupt-Kritikpunkt an HateAid in diesem Falle: Dass sie keine ausführlicheren Hintergrundinformationen mitgeliefert haben, obwohl es doch heutzutage nun wirklich kinderleicht ist, die entsprechenden Daten und Skripte ins Netz zu stellen. Das ist eine ganz allgemeine Forderung, die z.B. auch für mein eigenes Fach, die Astronomie gilt, wo ich vor Jahren bereits über Argumente berichtet hatte, dass Daten und Auswertungsskripte heutzutage mitveröffentlicht werden sollten.

[Ergänzend 25.9.2021, siehe auch den Nachtrag unten: HateAid teilte mir mit, falsch positive Treffer durch entsprechende Stichprobenauswertung berücksichtigt zu haben. Dazu, was das quantitativ heißt, habe ich derzeit keine näheren Informationen. Und die Schlüsse werden in der Pressemitteilung ja trotzdem bewusst vorsichtig formuliert.]

Genau wie Wissenschaftsjournalist*innen journalistische Texte nicht nur anhand der Instituts-Pressemitteilung verfassen sollten, sollte auch für einen Bericht über eine Studie wie diese hier gelten: Wer darüber journalistisch berichtet, sollte tunlichst die Studie selbst entsprechendes Hintergrundmaterial (wie es bei wissenschaftlichen Studien ja standardmäßig geliefert wird) gesehen haben. Vielleicht war das ja sogar der Fall – manchmal bekommen Journalist*innen ja Zugriff auf noch nicht veröffentlichte Texte. Dann hätte HateAid entsprechendes bereits an Journalist*innen weitergereichtes Material tunlichst auch selbst mit der Pressemitteilung online zugänglich machen müssen.

Was HateAid hier offenbar stattdessen gemacht hat – ich habe jedenfalls auf deren Webseiten nichts weiteres an Informationen gefunden – ist, lediglich die Pressemitteilung zu veröffentlichen. Und da fängt das Stille-Post-Spiel dann eben an.

Zusammenhang … potenziell…

Denn wenn in der Pressemitteilung mit sehr vorsichtiger Formulierug davon die Rede ist, dass es um Tweets geht, bei denen ein Kandidat*innen-Name “im Zusammenhang mit potenziell beleidigender und verletzender Sprache genannt” wurde, dann dürfte ja genau das gemeint sein: Es ist eine Nennung im Zusammenhang, nicht unbedingt eine Beleidigung des Kandidaten oder der Kandidatin. Und die Sprache selbst ist auch nur “potenziell beleidigend[d] und verletzen[d]”; ich kann das nur so deuten, dass anhand der Auswertung eben nicht sicher ist, ob hier tatsächlich eine Beleidigung vorlag oder eben nur Worte, die typischerweise zu einer Beleidigung gehören.

In diesem Zusammenhang ist interessant, dass zumindest die Standard-Version der Perspective-API bei solchen Kontext-Uneindeutigkeiten durchaus Probleme bekommen kann. In einem entsprechenden “Praktikum” auf der Google-Developers-Webseite wird als Beispielfall gerade die Perspective-API mit einem nicht ganz unähnlichen Problem aufgeführt: Nach der ersten Veröffentlichung der API war Nutzer*innen nämlich aufgefallen, dass Aussagen, die Informationen z.B. zu Identitätsbegriffen in punkto “race” oder “sexual orientation” enthielten, von der API irrtümlich als zu toxisch eingestuft wurden. Als Beispiel wird genannt: “I am a gay black woman” habe einen “toxicity score” von 0.87 bekommen. Offenbar fehlte da die Kontext-Information die der API erlaubte, zwischen nicht-toxischen Aussagen wie jener und aggressiven Aussagen mit – nun ja, mit was? Ähnlichem Klang? Das ist ja dann das Problem bei Machine Learning: Worin die Ähnlichkeit für die Maschine besteht, ist da gar nicht so einfach ermittelbar.

Auch da wäre demnach interessant: Was hat das HateAid-Team gemacht, um solche potenziellen Probleme auszuschließen? Im veröffentlichten Material findet sich dazu nichts; ich habe mal auf Twitter nachgefragt, vielleicht kommen da ja noch Informationen.

Stille Post zu Hass im Netz

Auffällig ist jedenfalls, wie sich die vorsichtige Aussage aus der Pressemitteilung im Laufe der Berichterstattung immer weiter verändert. Die Vorsicht geht verloren, ebenso der Hinweis auf “potenziell” und “Zusammenhang”. Der SPIEGEL-Artikel zeigt das recht direkt: Dort, wo im Text direkt auf die Studie Bezug genommen wird, wird vorsichtshalber direkt aus der Studie zitiert. Hier einmal mehr der entsprechende Text-Teil aus der Pressemitteilung:

Laschet, sei “mit 27.476 entsprechenden Kommentaren […] am häufigsten im Zusammenhang mit potenziell beleidigender und verletzender Sprache genannt” worden

So hört es sich im SPIEGEL an:

“Darunter wiederum fanden sich »27.476 Kommentare mit potenziell beleidigender und verletzender Sprache«, heißt es in der Studie.”

– da ist das im-Zusammenhang-mit dann bereits verlorengegangen, und man wird es keinem Leser und keiner Leserin verdenken, wenn er oder sie jenen verkürzten Satz liest als: das waren 27.476 Kommentare mit (potenziellen) Beleidigungen/Verletzungen gegen, in diesem Falle, Armin Laschet.

Und etwas später im gleichen SPIEGEL-Text sind jene Kommentare – die 27.476 zu Laschet plus die zu Scholz und die zu Baerbock – dann wie gesagt nur noch ganz pauschal “hasserfüllte[e] Kommentar[e] gegen die drei Spitzenkandidaten”. Aus dem Vorkommen potenziell beleidigender/verletzender Begriffe ist ein eindeutiges “hasserfüllt” geworden, und die weiche Formulierung mit dem im-Zusammenhang-vorkommen ist gänzlich verschwunden; in der neuen Formulierung ist klar: das sind hasserfüllte Kommentare gegen jene Spitzenkandidat*innen.

Obwohl die Studie diese Aussage eben bei genauerem Hinsehen eigentlich nicht zulässt, und durch entsprechend vorsichtige Formulierungen vermeidet.

Das ist dann eben doch eher Stille Post – vorurteilsgetriebene Stille Post, muss man sagen, denn es wird ja auf die verfälscht-vereinfachte Version mit dem höchsten Nachrichtenwert zugespitzt – als auch nur einigermaßen skeptischer, eine Untersuchung hinterfragender Journalismus.

Zusammenfassung und Oberzeile spiegeln die verkürzte entsprechend wieder. HateAid selbst schlägt mit der verkürzten Grafik-Beschreibung leider in dieselbe Kerbe, “Hass gegen Spitzenkandidat*innen” heißt es da nur, siehe oben. Und der Tagesspiegel macht aus den Zahlen wie gesagt, dass Armin Laschet am häufigsten beleidigt werde.

Fazit

Noch einmal: All das soll nicht davon ablenken, dass Hass im Netz, ob gegen Politiker*innen oder andere Menschen, ein wichtiges Thema ist, bei dem noch viel zu tun ist, und dass HateAid an dieser Stelle wichtige Arbeit leistet. Aber bei dieser speziellen Pressemitteilung kommen leider eine Reihe von Dingen zusammen: Kaum Informationen über die Methodik in der Pressemitteilung selbst (ein Versäumnis von HateAid) und in den darüber berichtenden Artikeln dann irreführende Verkürzungen, die alle Einschränkungen und vorsichtigen Formulierungen im Originaltext beiseitelassen um eine plakative, aufrüttelnde Botschaft zu senden.

Also ein Beispiel dafür, wie Journalismus gerade nicht vorgehen sollte, wenn über wissenschaftliche oder andere Studien berichtet wird.

Was paradoxerweise ja leider genau die Art von Verzerrungsmechanismus ist, die (nicht nur) Journalist*innen immer einmal wieder der Kommunikation in den Sozialen Medien vorwerfen – und, da schließt sich der Kreis, solche verfälschenden Überspitzungen sind auch ein wichtiger Bestandteil derjenigen Dynamik, die zu Empörung und auf geeignetem Nährboden dann auch zu, da haben wir ihn: Hass im Netz führt. Zu der Art von Hass, die wir eigentlich gerade bekämpfen wollen.

Nachtrag zur Methodik 25.9.2021

HateAid informierte mich per E-Mail ergänzend zur Methodik:

“Bei der Perspective API wurden die Scores „Insult” und „Threat” verwendet, die beide erfahrungsgemäß sinnvolle Ergebnisse liefern. Die Scores „Identity Attack” und „Toxicity” kamen nicht zum Einsatz. Aufgrund der von Ihnen in Ihrem Text völlig richtig erwähnten Schwächen der API werteten unsere Datenanalysten jeweils zusätzlich manuell Samples aus, um eine Verzerrung der Ergebnisse durch falsch positive Treffer der API auszuschließen.”

 

Nachträge

25.9.2021: Fehlenden Satz “Zugegeben: Das dritte Triell fand nach dem Erhebungszeitraum statt; diese spezielle Situation wird also in den dort ausgewerteten Tweets also keine Rolle gespielt haben.” auf Kommentar hin eingefügt.

25.9.2021: Klarstellunge zu Studie vs. “auf Datenrecherchen basierendes Briefing” nach einem Hinweis per E-Mail von HateAid, sowie zur Methodik.

 

 

 

 

Avatar-Foto

Markus Pössel hatte bereits während des Physikstudiums an der Universität Hamburg gemerkt: Die Herausforderung, physikalische Themen so aufzuarbeiten und darzustellen, dass sie auch für Nichtphysiker verständlich werden, war für ihn mindestens ebenso interessant wie die eigentliche Forschungsarbeit. Nach seiner Promotion am Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut) in Potsdam blieb er dem Institut als "Outreach scientist" erhalten, war während des Einsteinjahres 2005 an verschiedenen Ausstellungsprojekten beteiligt und schuf das Webportal Einstein Online. Ende 2007 wechselte er für ein Jahr zum World Science Festival in New York. Seit Anfang 2009 ist er wissenschaftlicher Mitarbeiter am Max-Planck-Institut für Astronomie in Heidelberg, wo er das Haus der Astronomie leitet, ein Zentrum für astronomische Öffentlichkeits- und Bildungsarbeit, seit 2010 zudem Leiter der Öffentlichkeitsarbeit am Max-Planck-Institut für Astronomie und seit 2019 Direktor des am Haus der Astronomie ansässigen Office of Astronomy for Education der Internationalen Astronomischen Union. Jenseits seines "Day jobs" ist Pössel als Wissenschaftsautor sowie wissenschaftsjournalistisch unterwegs: hier auf den SciLogs, als Autor/Koautor mehrerer Bücher und vereinzelter Zeitungsartikel (zuletzt FAZ, Tagesspiegel) sowie mit Beiträgen für die Zeitschrift Sterne und Weltraum.

18 Kommentare

  1. Dies ist ein interessanter Artikel. Was diesen API-Filter angeht, so erinnert mich dieser an einen SPAM-Filter in Mailprogrammen wie Thunderbird”. Mir ist schon passiert, daß solch ein Filter wichtige Mails “aussortiert” hatte und nach meiner Ansicht “echte SPAM-Mails” durchließ. Also sollte man das Ergebnis solch eines Filters an realen Texten (nicht die Trainingstexte) testen oder zumindestens stichprobenmäßig die Ergebnisse überprüfen. Denn so kann man feststellen wie viele “falsch positive” und “falsch negative” Ergebnisse vorhanden sind.

    Was die Darstellung in den Medien angeht, so habe ich auch schon manchmal erlebt, daß die Medien oder Politiker Aussagen aus Studien treffen, die weder in der Studie noch in der Pressemitteilung zu de Studie enthalten sind. Beispiel die Korrelation zwischen BMI und soziokulturellem Status (Einkommen, Bildung) und der Aussage (Bildung macht schlank).

    Gruß
    Rudi Knoth

  2. Dr. Webbaer schlägt vor zwischen Beleidigungen, sie sind in einigen Staaten, nicht in allen Staaten, nicht in allen liberalen Demokratien strafrechtlich relevant, und dem Hass als Emotion zu unterscheiden, denn Hass ist (auch in seiner Äußerung) nicht verboten und auch nicht grundsätzlich zu verdammen, in etwa so wie (geäußerte) Liebe nicht per se gut ist.

    Mit freundlichen Grüßen
    Dr. Webbaer

    • Der Versuch, jemanden tatsächlich durch wiederholte, verletztende und evt. auch konzertiert mit mehreren Menschen zusammen durchgeführte Kontaktaufnahmen (Tweets, Direktnachrichten etc.) zu zermürben ist allerdings noch etwas anderes als eine reine Beleidigung. Praktizierter Hass scheint mir da nicht der schlechteste Begriff, aber Sie haben natürlich recht, dass man da versuchen muss, einigermaßen sorgfältig zu definieren.

      • Die “Zermürbung” des Meinunsgegners ist OK, sie dient dem Meinungspluralismus, Dr. Webbaer ist, so seine Sicht, gut darin zu ‘zermürben’, es darf hier auf die Begriffsherkunft geschaut werden :

        -> https://www.duden.de/rechtschreibung/muerb

        Der (auch politische) Wettstreit ist iO, gerne auch mal ein wenig grober, vielleicht gar mit sog, Trash-Talk versehen, von sog. Hecklern (ein Germanismus).

        Es ist auch iO andere herabzusetzen, zu “verletzen”, sprachlich; bei unseren politisch links stehenden Freunden scheint dies ohnehin Usus zu sein, wenn sie Rechtsextremismus proklamieren, auch wenn der gar nicht da ist.
        Es ist keine Kleinigkeit Andersmeinende in Zusammenhang mit dem genozidalen Nationalsozialismus des “3. Reichs” zu bringen, dies soll wohl dehumanisieren.
        Hass ausdrückend – und doch einfach zulässig, oder findet wer nicht?

        Mit freundlichen Grüßen
        Dr. Webbaer

        • Was das angeht, müssen wir halt einen gesellschaftlichen Konsens finden. Was Einzelpersonen in Ordnung oder OK finden, ist ja leider dann doch einigermaßen von ihrer eigenen Situation geprägt und davon, wieweit sie sich in andere Menschen hineinversetzen können – oder ob sie z.B. dort, wo die Erfahrungswelt von ihrer eigenen abweicht, dann eventuell doch zu schnell damit bei der Sache sind, von anderen ein “die sollen sich mal nicht so anstellen!” zu fordern. Oder als anders gelagertes zugespitztes Beispiel: Wer gerne herumschreit und gerne andere herunterputzt (was ich Ihnen damit beileibe nicht unterstellen möchte!) fordert ja dann meist nicht “Ich will aber andere fertigmachen dürfen!”, sondern kleidet den Versuch, die Regeln zum persönlichen Vorteil zu gestalten, meist in edler klingende Begriffe wie Meinungsfreiheit etc.

          Ihr Pauschalurteil zu “politisch links stehenden Freunden” kann ich nicht nachvollziehen; das scheint mir eher ein Vorurteil zu sein. In Verbindung mit dem Rechtsextremismus muss man tatsächlich vorsichtig sein. Aber dort, wo es bei menschenverachtenden Weltbildern Parallelen gibt – z.B. bei Rassismus oder Antisemitismus, aber durchaus auch bei Agitation gegen eine freie und unabhängige Presse (etwa die “Lügenpresse”-Rufe) sollte man die tunlichst aufzeigen. Das entspricht direkt dem “Wehret den Anfängen”. Gerade weil Sie in früherem Kommentar den Begriff “Hass” problematisiert haben, wundert mich, dass Sie in hier entweder unscharf oder doch polemisch anwenden. Verachtung etwa gegenüber bestimmten Handlungen oder Weltbildern von Menschen ist ja nicht deckungsgleich mit Hass. Den Begriff “Hass” finde ich da angemessener, wo selbst beim besten Willen kein Sachgrund mehr da ist, der extreme Situationen rechtfertigen würde – etwa Vergewaltigungswünsche in Richtung von Frauen, oder die Aufforderung doch bitte Selbstmord zu begehen.

  3. “aus einem rund 10.000 Accounts umfassenden rechten bis rechtsextremen Ökosystem auf Twitter”

    Finde ich gut, dass man die linken bis linksextremen Twitterer nicht untersucht hat, denn die können ja sowieso per Definition gar keinen Hass verbreiten.

    • Die nicht-rechten Twitterer hat man ja sehr wohl untersucht – daher die Gesamtzahlen, von denen das “rechtsextreme Ökosystem” nur eine Teil ausmacht. Ihre sarkastische Aussage scheint mir daher der nötigen Sachgrundlage zu entbehren. Warum hier speziell rechte Accounts gesondert betrachtet wurden, kann man aber an dieser Stelle hier sicherlich fragen.

        • Weiß ich nicht – dass zu der Methodik zu wenig an Informationen geliefert wird, war ja auch Teil meiner Kritik an der HateAid-Veröffentlichung. Gut möglich wäre, dass das auf der Basis früherer Studien geschah. Das Bundeskriminalamt beispielsweise hatte ja vor einigen Jahren gefunden, dass drei Viertel der als Hasspostings eingestuften Meldungen “von rechts” kommen, siehe diesen Artikel hier.

  4. Hierzu :

    Auch da wäre demnach interessant: Was hat das HateAid-Team gemacht, um solche potenziellen Probleme auszuschließen? Im veröffentlichten Material findet sich dazu nichts; ich habe mal auf Twitter nachgefragt, vielleicht kommen da ja noch Informationen. [Artikeltext]

    Eine “API” ist ein Application Programming Interface, es dient dazu Anwendern, auch anwendenden Programmen, nicht selten sind hier sog. Web-Services im Einsatz, Leistung eines Programmes, in diesem Fall eines, dass “Hass” zu identifizieren, zu “scoren” (Dr. Webbaer kennt sich mit derartigen Scoring-Systemen ein wenig aus, hat da selbst schon verantwortet) weiß, der Abnehmer der Leistung stellt dann, seinen Bedürfnissen folgend, passend ein.

    “Hass” ist nur sehr schwierig zu “scoren”, Dr. W hat hier ein wenig derartige Systeme getestet, hasst selbst nicht, was derartige Beforschung erleichtert, und meint festgestellt zu haben, dass am Ende, Dr. W verfügt wohl bei derartigen Systemen über einen gewissen Vertrauensvorschuss (hart erarbeitet, lol), eine Person, ein Nasenbär sozusagen dran sitzt, um individuell freizuschalten [1], was fast immer erfolgt.
    Diesen Aufwand will Dr. W nicht abrechnen.

    Dr. Webbaer schlägt vor derartige IT-basierte Systeme nicht überlasten.
    Die Anbieter derartiger Leistung haben es schon schwer genug.

    Mit freundlichen Grüßen
    Dr. Webbaer

    [1]
    Die sitzen dann, mit Übersetzungstools ausgestattet, denkbarerweise in Pakistan und haben zudem selbst Humor.
    Dr. W misst reziprok manchmal ihre Reaktionsgeschwindigkeit.

  5. “Insbesondere dass Laschet beim dritten Triell offenbar mehr als einmal weitergeredet hat, obwohl er gar nicht mehr dran war, hat genervte unhöfliche Twitternutzer mehr als einmal zu Formulierungen mit Variationen auf “Halt die Fresse” animiert. ”
    Der Untersuchungszeitraum war (laut Grafik) vom 07.08. – 07.09.2021, das dritte Triell fand nach meinen Informationen am 19.09.2021 statt.
    Mit freundlichen Grüßen
    Egbert

    • In der Tat; die Einschränkung hatte ich an genau der Stelle erwähnen wollen. (Deswegen geht der Satz im Anschluss, derzeit etwas unpassend, mit “aber” weiter.) Trage ich jetzt nach.

  6. Ja, also, Hass ist blöd.
    Aber interesanterweise brauchen wir wohl keine Wahlurne, Wahlgänge und den ganzen Aufwand nicht mehr, denn man muß nur massenmedial Kandidaten bekannt geben, und dann entscheidet die “Twitter-Demokratie”…und das anscheinend relativ verlässlich dem nahekommend, was in regulärer Wahlabstimmung herrauskäme…oder?

    Derjenige, der am wenigsten “Hasskommentare” bekommt, wird dann also Kanzler und organisiert die Regierung. Oder so.
    Also, rein rechnerisch gingen auch andere Konstellationen. Sogar eine Koalition mit allen “Sonstigen” wäre denkbar und würde mit 8,x % die entscheidenen Sitze bringen.

    Das es landläufig keine gute Entscheidungs-Strategie ist, sich daran zu orientieren, was man nicht will, scheint nämnlich keine Rolle zu spielen. Jedenfalls wenn das System eindeutige Begrenzungen hat (wie Parteien und Kandidaten zur Auswahl). Wenn nämlich bei allen Wahlmöglichkeiten nichts wirklich gut scheint, dann ist die Wahl über das Negative besser, weil … fällt leichter. Ansonsten ist man regelmäßig zu unzumutbaren Kompromissen genötigt, die meist schlimmere Auswirkungen haben, als wenn man nur einfach sagt, was man nicht will und sich keine Hoffnungen darauf macht, das man was wollte, das später nicht bekommen werden kann.

    Das Resultat ist jedenfalls ziemlich stimmig mit dem regulären Wahlergebnis.

    Man merkt auch, wie die Unionsmitglieder nun zerreden, und umdeuten… sehr bemüht sind, nicht auszusprechen, was falsch lief, was ihren Kanzlerkandidaten angeht. Und immer, wenn man demonstrativ von “lückenloser Aufarbeitung” redet, heisst es, das man die Geschichtsschreibung möglichst wenig selbstschädigend beeinflussen will. Dann geht man daran, und redet um den Gestank herum, und benennt gerade nicht die Fäulnis als Ursache.

    Und gerade verstehe ich das Problem der “Hassrede”. Sie legt offen, und hinterlässt eine Spur zum Problem, das man zuweilen selbst ist. Allerdings nicht deswegen, weil sie Wahrheitsprechen im Sinne der Statistik und der tendenz, sondern, weil “Fäulnis” in anderer Szenerie gesehen werden muß, wo der relevante Verfall nicht dort stattfindet, wo er leicht zu sehen ist. Das ist eh ein Problem der “repräsenttiven Demokratie”, die ja stellvertretend regiert und nicht Eigenverantwortlich und aus eigener Motivation. Wenn Regierungen wie Fahnen im Wind sind, wie sollen sich dann die Bürger besser entiwckeln, als die regierenden Althinteren? Nein, es bedeutet nur, das Souveränität Bedingung für ein freies Leben ist, aber in Demokratie, wie dieser, gar nicht möglich ist.

    Ist da nicht ein Fehler im System… in der Idee? Jedenfalls, was die Vorbildwirkung und Notwendigkeit derselben angeht.

    • Oder aber deutlich weniger dramatisch: Unbeliebtere Kandidaten bekommen sowohl mehr kritische Kommentare (und in Proportion dazu beleidigende Kommentare desjenigen Bruchteils von Menschen, die das mit der Kritik nicht sachlich hinbekommen) als auch weniger Stimmen. Korrelation, nicht Kausalbeziehung.

      • Ja, genau, es geht zu wie im Kindergarten. Aber einige Sichtweisen über Wirklichkeiten ändern sich eben nie im Leben. Deswegen funktioniert die “verneinende Wahl” womöglich gut…gar besser, als die sogenannte “konstruktiv-Wahl” in der die Kandidaten gewählt werden, indem man ihnen eine Stimme gibt, anstatt sie entzieht.
        Angesichts der schwindenen Wahlbeteiligung scheint mir das “umgekehrte System” auch sinnvoller. Es entblösst eben nur die Tatsache um so mehr, wer absolut gar nicht gewollt ist.

        Und naja, sachliche kritik… als ich früher Kind war, gab es öfter mal eine Kritik an mich, das ich wirklich nichts hinbekommen würde. Und echt jetzt, sie war wahr – ich war Kind ohne Inselbegabung. Wie soll man anders kritisieren, wenn nicht mit dem Kern der Kritik?
        Das muntert natürlich nicht auf und motiviert nur dazu, besser zu werden, indem man mit Kräften besser zu werden versucht. Als ein Kraftakt. Und naja, wer würde Laschet solche Kräfte unterstellen wollen.
        Wobei das ja sowieso absurd ist. Das Wort “Wahlkampf” spielt mit dem Terminus “Kampf” und niemand kämpft wirklich. Es wird halt geredet. Und immer dann wenn viel geredet wird, kommt leicht herraus, das wenig dahinter steckt. Also, wenn es denn auch so ist – und es ist leider auch zu oft. Auch, wenn ich jetzt Gefahr laufe, ausser Acht zu lassen, was es bedeutet, eine Regierung zu führen und die Geschicke des ganzen Landes zu vertreten und zu fördern. Ich wäre an dreen Stelle um Faktoren bescheidener, weil man eigendlich nur immer alles falsch machen kann, wenn man nur redet, was die Leute scheinen hören zu wollen.

        Jedenfalls ist der Unterschied zwischen kleinen Kindern und Kanzlerkandidaten, das einer von beiden sein Leben noch vor sich hat und viel Zeit für Besserung.

  7. @ Egbert
    25.09.2021, 12:39 Uhr

    Zitat:
    “Insbesondere dass Laschet beim dritten Triell offenbar mehr als einmal weitergeredet hat, obwohl er gar nicht mehr dran war, hat genervte unhöfliche Twitternutzer mehr als einmal zu Formulierungen mit Variationen auf “Halt die Fresse” animiert. ”

    -> Das Redner einfach weiterreden, hat es immeschon gegeben. Aber nicht immer wird das dann auch vor dem Redeinhalt thematisiert. Woran mag das wohl liegen? Also abgesehen, das der Redeinhalt vielleicht gleich Null sei…mag es auch daran liegen, das jemandem keine Redezeit zugestanden wird, dem man sowieso jede Bewerbung verweigern würde, da er/sie schlicht unerwünscht ist.
    Andere hingegen, gegen die keine “Aversion” existiert, auch ohne Verweis auf den wichtigen Inhalt die überschreitung der Redezeit sogar zugestanden wird, selbst wenn der Redeinhalt auch gleich Nullsignifikanz war.

    Hm, kann eine Demokratie, die von Dialog und Diskurs um die beste Entscheidung getragen werden soll, überhaupt funktionieren, wenn die Dialogteilnehmer (und Rezipienten) sowieso nicht genug zuhören, wenn nur der “Regelverstoß” der Redezeitüberschreitung thematisiert wird?

    • Das ist aus meiner Sicht gerade ein Beispiel für das, was Diskussionen unkonstruktiv macht – böswillige Unterstellungen, die dann zur Unterfütterung der eigenen Position “genutzt” werden. Denn selbstverständlich wurde in diversen Kommentaren auch inhaltliche Kritik geübt.

  8. Hass im Web ?
    Die Ursachen sind vielfältig.
    1. Zu lascher Umgang mit der Wahrheit in der Yellow-Press. In einem Magazin ist die Schauspielerin schon schwanger, in der nächsten Freizeitrevue steht sie vor der Trennung.
    Spekulative Behauptungen sollten strafrechtlich belangt werden können.

    Stärkere Kennzeichnung von Bericht und Kommentar in den Tageszeitungen. Zeitungsmonopole sind zu vermeiden.

    Meldungen, die der Beeinflussung von Börsenkursen dienen, sollten international geächtet werden und auch verfolgt.

    Meldungen, die der Beeinflussung von Wahlverhalten dienen sollten nachträglich, nach der Wahl geahndet werden können, notfalls sogar mit Wahlwiederholung. Darüber entscheidet ein Gericht.

    Meldungen, die Kandidaten bedrohen ,sollten auf jeden Fall verfolgt werden .

    Wichtig bleibt, dass das web kein rechtsfreier Raum wird. Der Begriff „angemessen“ ist zu definieren und wenn möglich durch Gerichtsurteile zu belegen.

Schreibe einen Kommentar