In den letzten Jahren haben sich die Möglichkeiten der natürlichen Sprachverarbeitung rapide entwickelt. Große Sprachmodelle wie GPT-2 können Texte generieren, die von menschlichen kaum mehr zu unterscheiden sind. Dies öffnet Möglichkeiten für böswillige Akteure, gefälschte Bewertungen, Kommentare oder Nachrichtenartikel zu generieren, um die öffentliche Meinung zu beeinflussen.
Um dies zu verhindern, müssen wir forensische Techniken entwickeln, um automatisch generierte Texte zu erkennen. Ein solches Werkzeug ist GLTR, das Giant Language Model Test Room.
GLTR ist ein visuelles Werkzeug, das entwickelt wurde, um Texte zu erkennen, die automatisch aus Sprachmodellen generiert wurden. Es hat Zugriff auf das GPT-2-Sprachmodell von OpenAI, eines der besten verfügbaren Modelle. GLTR kann analysieren, was GPT-2 an jeder Position "vorhergesagt" hätte. Im Gegensatz dazu würde ein Mensch tatsächlich häufiger unvorhersehbare Wörter auswählen. GLTR kann diesen Unterschied erkennen und entlarvt so den maschinengeschriebenen Text.
GLTR bietet eine Reihe von Funktionen, um die Erkennung automatisch generierter Texte zu erleichtern:
GLTR kann von Journalisten, Forschern und anderen verwendet werden, um zu überprüfen, ob ein Text automatisch generiert wurde. Es kann auch verwendet werden, um die Authentizität von Texten zu überprüfen und die Verwendung von AI-Modellen in der Textgenerierung aufzudecken.
GLTR ist ein mächtiges Werkzeug zur Erkennung automatisch generierter Texte. Es bietet eine Reihe von Funktionen, um die Erkennung solcher Texte zu erleichtern und kann von verschiedenen Benutzern verwendet werden, um die Authentizität von Texten zu überprüfen.
* KI-Zusammenfassungen können Fehler enthalten. Alle Angaben ohne Gewähr.