Die jüngste Generation von Chatbots hat langjährige Bedenken über die wachsende Sophistikation und Zugänglichkeit künstlicher Intelligenz aufgeworfen. Furcht vor dem Verlust von Arbeitsplätzen, von der kreativen Wirtschaft bis hin zur Managerklasse, hat sich auch auf den Bildungsbereich ausgewirkt, wo Erzieher das Lernen im Zeitalter von ChatGPT neu überdenken.
Tatsächlich werden die Auswirkungen großer Sprachmodelle wie ChatGPT fast jeden Aspekt unseres Lebens berühren. Diese neuen Tools werfen gesellschaftsweite Bedenken über die Rolle künstlicher Intelligenz bei der Verstärkung sozialer Vorurteile, der Begehung von Betrug und Identitätsdiebstahl, der Erzeugung von Fake-News, der Verbreitung von Falschinformationen und vielem mehr auf.
Ein Team von Forschern an der University of Pennsylvania School of Engineering and Applied Science möchte Tech-Nutzer befähigen, diese Risiken zu minimieren. In einem peer-reviewed Paper zeigen die Autoren, dass Menschen lernen können, den Unterschied zwischen maschinengenerierten und menschlich geschriebenen Texten zu erkennen.
Bevor Sie ein Rezept auswählen, einen Artikel teilen oder Ihre Kreditkartendaten angeben, ist es wichtig zu wissen, dass es Schritte gibt, die Sie unternehmen können, um die Zuverlässigkeit Ihrer Quelle zu überprüfen.
Die Studie, geleitet von Chris Callison-Burch, Associate Professor im Department of Computer and Information Science (CIS), zusammen mit Liam Dugan und Daphne Ippolito, Doktoranden in CIS, liefert Beweise dafür, dass AI-generierte Texte erkennbar sind.
„Wir haben gezeigt, dass Menschen sich selbst trainieren können, maschinengenerierte Texte zu erkennen“, sagt Callison-Burch. „Menschen beginnen mit einer bestimmten Menge an Annahmen über die Art von Fehlern, die eine Maschine machen würde, aber diese Annahmen sind nicht notwendigerweise korrekt. Über Zeit, mit genügend Beispielen und expliziter Anleitung, können wir lernen, die Arten von Fehlern zu erkennen, die Maschinen derzeit machen.“
Das Trainingsspiel "Real or Fake Text?" ist ein wichtiger Teil dieser Studie. Es ermöglicht es Teilnehmern, zwischen menschlich geschriebenen und maschinengenerierten Texten zu unterscheiden, indem sie Beispiele markieren, die von menschlich geschriebenen zu maschinengenerierten Texten wechseln. Die Ergebnisse der Studie zeigen, dass Teilnehmer besser als zufällig abschnitten, was beweist, dass AI-generierte Texte erkennbar sind.
Dieser Ansatz bietet eine realistischere Umgebung für das Training, indem er die Art und Weise simuliert, wie Menschen AI-Tools verwenden, um Texte zu generieren. Durch die Verwendung von Beispielen, die alle als menschlich geschriebene beginnen und dann in maschinengenerierte Texte übergehen, können Teilnehmer lernen, die Merkmale von Fehlern zu erkennen, die Maschinen machen.
Insgesamt zeigen die Ergebnisse dieser Studie, dass Menschen lernen können, den Unterschied zwischen maschinengenerierten und menschlich geschriebenen Texten zu erkennen. Dies ist ein wichtiger Schritt, um die Risiken von AI-generierten Texten zu minimieren und die Zuverlässigkeit von Quellen zu überprüfen.
* KI-Zusammenfassungen können Fehler enthalten. Alle Angaben ohne Gewähr.