KI Apps

ModerateHatespeech

Website
Screenshot der Startseite von ModerateHatespeech
Zusammenfassung mit KI ⊛

ModerateHatespeech ist eine Non-Profit-Initiative, die sich zum Ziel gesetzt hat, online veröffentlichte Hassrede und Belästigung zu reduzieren. Das Projekt verwendet Machine-Learning-Modelle, die auf Hunderttausenden von Kommentaren trainiert wurden, um toxische Inhalte zu erkennen und zu filtern.

Das Problem


Online-Hassrede und -Belästigung sind ein großes Problem. Laut Statistiken erleben 130 Millionen Amerikaner online Hass und Belästigung, wobei LGBT-Jugendliche dreimal häufiger betroffen sind. Frauen erleben nach online-Beleidigungen Panikattacken und Stress, und bei Jugendlichen unter 18 Jahren steigt das Suizidrisiko um das 11,5-fache. Nur 18% der Betroffenen glauben, dass Online-Plattformen effektiv Hass und Belästigung bekämpfen.

Die Lösung


ModerateHatespeech bietet eine Lösung, die auf Machine-Learning-Modellen basiert, die auf großen Datenmengen trainiert wurden. Das Modell kann toxische Inhalte mit einer Genauigkeit von 98% erkennen und reduziert die Zeit, die solche Inhalte online bleiben, um 99%. Durch die Verwendung von ModerateHatespeech können Online-Communities ihre Toxizität um 92% reduzieren und Hunderte von Stunden an Moderationszeit einsparen.

Integration


Das ModerateHatespeech-Modell kann leicht in bestehende Plattformen integriert werden, indem ein API-Schlüssel verwendet wird. Es gibt auch vorbereitete Integrationen für verschiedene Programmiersprachen wie Bash, WordPress, PHP und Python.

Datasets


Das ModerateHatespeech-Modell wurde auf verschiedenen Datenmengen trainiert, darunter HateXplain, Hate Speech and Offensive Language, Hate speech from white supremacist forum, MLMA Hate Speech, Ethos, Wikipedia Detox, Dynamically Generated Hate Speech Dataset, Sentiment140, Surge AI Toxicity Dataset, The ISMA Project, Reddit Norm Violations, Hacker News Corpus und NYTimes Comments.

Fazit


ModerateHatespeech bietet eine effektive Lösung, um online veröffentlichte Hassrede und Belästigung zu reduzieren. Durch die Verwendung von Machine-Learning-Modellen und großen Datenmengen kann das Modell toxische Inhalte mit hoher Genauigkeit erkennen und reduzieren. Online-Communities können durch die Verwendung von ModerateHatespeech ihre Toxizität reduzieren und eine sicherere Umgebung für ihre Benutzer schaffen.

Ähnliche KI-Apps

* KI-Zusammenfassungen können Fehler enthalten. Alle Angaben ohne Gewähr.