Content:

Mittwoch
15.02.2023

Digital

«Wir wissen häufig nicht, inwiefern gelöschte Inhalte auch von strafrechtlicher Relevanz sind», sagt Forschungsleiterin Franziska Oehmer. (Bild: zVg.)

«Wir wissen häufig nicht, inwiefern gelöschte Inhalte auch von strafrechtlicher Relevanz sind», sagt Forschungsleiterin Franziska Oehmer. (Bild: zVg.)

Das Forschungsteam um Frau Prof. Dr. phil. Franziska Oehmer – die an der Fachhochschule Graubünden Dozentin für Medien- und Kommunikationswissenschaft ist – ist angetreten, um Daten über im Internet publizierte Hassbilder zu sammeln.

Die Idee ist, dass User Bilddokumente von digitalem Hass auf die Projektwebseite hochladen. Nachdem am 3. Februar zum Upload aufgerufen wurde, wurde die Projektwebseite Zielscheibe einer Cyberattacke, wie der Klein Report bereits berichtete.

Nun hat der Klein Report bei Studienleiterin Franziska Oehmer nachgefragt, was sie sich von der Aussrichtung der Studie auf die visuellen Erscheinungsformen von Hass und Hetze konkret verspricht, wie sichergestellt wird, dass die gesammelten Daten repräsentativ sind und wo konkrete Ansatzpunkte bestehen, um gegen Hetze im Web vorzugehen.

«Memes, also Kombinationen von visuellen Inhalten, kurzen Texten oder Tags, die aktuell einen hohen Stellenwert, vor allem in der Onlinekommunikation Jugendlicher haben, sind ein Beispiel für den Erfolg visueller Inhalte. Das macht Hass, der auf diese Weise vermittelt wird, besonders wirkungsvoll», bringt es die Studienleiterin Franziska Oehmer mit diesem Beispiel für ihr Forschungsgebiet des visuellen Hasses sogleich zu Beginn des Gesprächs auf den Punkt.

Weiter verrät die Leiterin des Forschungsteams zum Forschungsgrund, dass bisherige Forschung zu Hass im Netz Bilder zwar nicht explizit ausgeschlossen habe, aber sie auch nicht fokussiert analysierte: «Wir hoffen, mit unserem Projekt Erkenntnisse über die Spezifika von Bildern erlangen zu können, um diese für die Entwicklung von geeigneten Gegenmassnahmen zu nutzen.»

«Wir möchten mit unserem Projekt aber den Fokus auf eine besonders wirkungsvolle, aber dennoch bisher eher untererforschte Form der Hasskommunikation legen», umschreibt Franziska Oehmer das Ziel ihres Foschungsprojekts weiter. «Wir möchten das ganze Spektrum visuellen Hasses erfassen. Das heisst in der Konsequenz auch, dass wir nicht nach spezifischen Namen oder Hashtags im Internet suchen wollen, die wir vorab definieren. Wir würden sonst nur den Hass dort finden können, wo wir ihn vorab auch vermutet haben.»

Das Forschungsteam will möglichst repräsentative Daten darüber sammeln, wer Hassbilder versendet, gegen wen sie sich richten und auf welchen Plattformen sie verbreitet werden.

Die Forscherin erklärt weiter, dass in vier Schritten sicher gestellt wird, dass die von den Usern gesammelten Daten auch repräsentativ sind. Erstens: Zivilgesellschaftliche Organisationen wurden als Kommunikationspartner gewonnen. Diese würden ihre Mitglieder über das Projekt informieren. Zweitens schrieben sie Medienmitteilungen und hielten eine Medienkonferenz für Medienschaffende, um über die Berichterstattung Aufmerksamkeit zu erzielen. Hinzu kommt eine breit gestreute Kommunikation auf Social-Media-Kanälen und als letzter Punkt, dass Flyer in Bibliotheken, Bars und an öffentlichen Orten verteilt wurden.

Der Nationalrat verlangte von den Social-Media-Plattformen im letzten Mai mehr Transparenz über Hassbotschaften auf ihren Kanälen. Viele dieser Einträge würden von den Plattformen gelöscht, ohne dass sie für die Urheber und die Betreiber rechtliche Konsequenzen gehabt hätten, so das Argument der Grünen-Nationalrätin Greta Gysin. Diese Intransparenz ist auch ein Problem für die Forschung über Online-Hass, so eine weitere Feststellung des Klein Reports.

Franzsika Oehmer: «Immer, wenn Inhalte auf Plattformen gelöscht werden, liegt diesem Entscheid eine Abwägung zwischen dem Schutz der Nutzenden vor stossenden Hassinhalten einerseits und dem Recht auf freie Meinungsäusserung des Individuums andererseits zu Grunde. Das ist ein für die Demokratie relevanter Entscheid. Dass dieser allein in den Händen privater Plattformbetreiber – oder, um es besonders anschaulich zu machen, in den Händen von Elon Musk – liegt und bisher nicht in ausreichendem Masse transparent gemacht wird, ist sehr unbefriedigend.»

Und weiter: «Wir wissen häufig nicht, inwiefern gelöschte Inhalte auch von strafrechtlicher Relevanz sind und ob diese gegebenfalls auch durch staatliche Behörden verfolgt werden (können)», ergänzt die Leiterin des Forschungsteams.

Auf die Feststellung des Klein Reports, dass die sozialen Medien seit Jahren geloben, den Hass auf ihren Plattformen in die Schranken zu weisen und dass Hass gleichzeitg gut fürs Geschäft sei, weil nichts derart viele Klicks in derart kurzer Zeit generiere wie ein deftiger Shitstorm, antwortet Franzsika Oehmer: «Es ist sicherlich richtig, dass emotionale Inhalte wie Hassbilder und Hassbotschaften hohe Interaktionsraten mit Likes, Shares und Kommentaren generieren.»

Oehmer: «Hohe Interaktionen sind Ziel und Grundlage des Geschäftsmodells vieler Plattformen. Denn darüber lässt sich auch Werbung verkaufen», so die Professorin weiter, es sei aber auch nicht förderlich, wenn die Werbebotschaften von Unternehmen neben Hasskommentaren gezeigt werden. «Das ist sicherlich auch ein Grund, weshalb die meisten Plattformen erkannt haben, dass es wichtig ist, aktiv gegen Hass vorzugehen.»

«Es bedarf Massnahmen auf allen Ebenen: Seien es Gesetze, die Diskriminierung und Gewaltaufrufe wirkungsvoll unter Strafe stellen (und Behörden, die diese verfolgen), seien es Plattformen, die Hass löschen oder mit Hinweisen versehen, seien es Bildungseinrichtungen oder zivilgesellschaftliche Akteure, die für das Problem sensibilisieren, über Folgen aufklären und Möglichkeiten zur Abwehr (wie beispielsweise Formen der Gegenrede) bekannt machen», ergänzt die Forschungsteamleiterin.

«Unser Forschungsprojekt besteht aus zwei aufeinander aufbauenden Teilschritten: In einem ersten Schritt sollen Erkenntnisse über das Ausmass und die Merkmale von Hassbildern im Netz erzielt werden. Grundlage dieser Analyse sind die eingereichten Hassbilder. Wir erhoffen uns, so zu erfahren, wer visuellen Hass streut, gegen wen er sich richtet, mit welchen Mitteln dabei gearbeitet wird und auf welchen Plattformen er kursiert», bilanziert die Studienleiterin.

Oehmer hofft abschliessend, dass der zweite Schritt, das heisst, Massnahmen zu identifizieren und experimentell zu testen danach umgesetzt werden können. «Erkenntnisse hierzu sollen bereits Ende diesen Jahres vorliegen, das bestätigt mein Kollege Stefano Pedrazzi von der Universität Freiburg, in dessen Verantwortungsbereich dieser Schritt vor allem liegt», so Oehmer.

Sie selber hofft, dass diese Schritte in ein Empfehlungspapier zum Umgang mit digitalen Hassildern münden.