Sexismus in sozialen Medien automatisch erkennen
Künstliche Intelligenz zur Identifikation von problematischen Inhalten entwickelt
Sexismus ist ein weitreichendes gesellschaftliches Problem und hat insbesondere in den sozialen Medien in den letzten Jahren stark zugenommen.
Dabei werden insbesondere Frauen, die in der Öffentlichkeit stehen, vor große Herausforderungen gestellt, wie aktuelle Studien zeigen. Soziale Medien treten hier als Beschleuniger auf und senken die Hemmschwellen für verbale Übergriffe.
Tool erkennt sexistische Äußerungen
Die FH St. Pölten und das AIT Austrian Institute of Technology haben im Rahmen des internationalen EXIST-Wettbewerbs (sEXism Identification in Social neTworks) eine Methode entwickelt, die die automatische Erkennung von sexistischen Äußerungen ermöglicht und dabei den dritten Platz belegt (aus 31 internationalen Teams).
Das Tool basiert auf Methoden der künstlichen Intelligenz und nutzt Natural Language Processing (NLP) und Machine Learning, um Beiträge auf sozialen Medien semantisch zu untersuchen und zu klassifizieren.
„Ein zentrales Ziel unserer Forschung ist es, stets einen sinnvollen Beitrag zu leisten, um Probleme in unserer Gesellschaft zu lösen. Eine automatisierte Erkennung von sexistischen Äußerungen kann dazu beitragen, den Diskurs in den Sozialen Medien zu verbessern, Problembewusstsein zu stärken und Maßnahmen gegen diskriminierende Inhalte zu setzen“, so Matthias Zeppelzauer, Leiter der Forschungsgruppe Media Computing am Institut für Creative\Media/Technologies der FH St. Pölten.
Kategorisierung von Inhalten
Besonders herausfordernd bei der automatischen Erkennung von sexistischen Inhalten ist die Unterscheidung zwischen verschiedenen Kategorien von sexistischen Äußerungen und der Identifikation von ironischen oder sarkastischen Statements.
Die Datenbasis für die Klassifizierung lieferte der EXIST-Wettbewerb, der Teilnehmer*innen Postings auf den Plattformen „Twitter“ und „Gab“ zur Verfügung stellte. Dabei wurde nicht nur zwischen sexistischen und nicht sexistischen Inhalten unterschieden, sondern eine feine Kategorisierung sexistischer Inhalte vorgeschlagen.
Die Postings, welche in englischer und spanischer Sprache vorlagen, wurden basierend auf deren Inhalt kategorisiert und in folgende Typen eingeteilt, die es automatisch zu unterscheiden galt: Ideologie und Ungleichheit, Stereotype und Herrschaft, Objektifizierung, sexuelle Gewalt, Misogynie und nicht-sexuelle Gewalt.
Auch subtile Anspielungen berücksichtigen
„Wichtig bei der Erkennung sexistischer Inhalte ist, dass wir nicht nur offensichtliche Formen von Sexismus automatisch identifizieren können, sondern auch subtile Formen und Anspielungen, die auf den ersten Blick übersehen werden könnten“, so Alexander Schindler, Leiter des NLP-Teams auf Seite des AIT.
Das Projektteam bestehend aus Studierenden als auch aus Forscher*innen des Center for Digital Safety & Security am AIT und der FH St. Pölten umfasste:
- Johannes Bogensperger
- Jaqueline Böck
- Manuel Hecht
- Armin Kirchknopf
- Daria Liakhovets
- Alexander Schindler
- Sven Schlarb
- Mina Schütz
- Djordje Slijepcevic
- Matthias Zeppelzauer
Zusammenarbeit mit dem AIT
Auf Seite des AIT wurde die Initiative durch das Projekt defalsif-AI gefördert, welches im Rahmen des Sicherheitsforschungs-Förderprogramms KIRAS des Bundesministeriums für Landwirtschaft, Regionen und Tourismus (BMLRT) finanziert wird.
FH-Prof. Priv.-Doz. Dipl.-Ing. Mag. Dr. Matthias Zeppelzauer
ForschungsgruppenleiterForschungsgruppe Media Computing
Institut für Creative\Media/Technologies Department Medien und Digitale Technologien