
In einer Zeit, in der das Internet für viele Menschen zur Hauptquelle von Informationen geworden ist, hat die Glaubwürdigkeit von Online-Inhalten und deren Quellen einen kritischen Wendepunkt erreicht. Dieses Besorgnis wird durch die Verbreitung von Anwendungen generativer künstlicher Intelligenz (KI) wie ChatGPT und Google Bard verstärkt. Im Gegensatz zu Plattformen, deren Inhalte von Menschen erstellt und betreut werden, erzeugen KI-gesteuerte Systeme die Inhalte eigenständig – oft mit Fehlern. Eine gemeinsame Studie der Hochschule Mainz und der Johannes Gutenberg-Universität Mainz (JGU) widmet sich der Frage, wie Nutzer die Glaubwürdigkeit von KI-generierten Inhalten und von Menschen erstellten Inhalten auf verschiedenen Benutzeroberflächen beurteilen. An der Studie haben mehr als 600 englischsprachige Personen teilgenommen.
Ähnliche Glubawürdigkeit
Prof. Dr. Martin Huschens, Professor für Wirtschaftsinformatik an der Hochschule Mainz und einer der Autoren der Studie, betont: „Unsere Studie enthüllte einige wirklich überraschende Erkenntnisse. Es zeigte sich, dass die Teilnehmer unserer Studie KI-generierte und menschen-generierte Inhalte als ähnlich glaubwürdig einschätzen und zwar unabhängig von der Benutzeroberfläche.“ Und er fügt hinzu: „Noch faszinierender ist, dass die Teilnehmer KI-generierten Inhalten eine höhere Klarheit und Anziehungskraft zusprachen, obwohl es keine signifikanten Unterschiede in Bezug auf die wahrgenommene Nachrichtenkompetenz und Vertrauenswürdigkeit gab – und das obwohl KI-generierte Inhalte nach wie vor ein hohes Risiko für Fehler, Missverständnisse und halluzinatorisches Verhalten aufweisen.“
Menschen sensibilisieren
Prof. Dr. Franz Rothlauf von der Johannes Gutenberg-Universität Mainz sagt dazu: „Der Beitrag zeigt auf, dass im Zeitalter von ChatGPT Menschen nicht mehr zwischen Mensch und Maschine unterscheiden können. Da Maschinen allerdings nicht ‚wissen‘, sondern statistisch raten, brauchen wir zukünftig eine Kennzeichnungspflicht von maschinengeneriertem Wissen. Sonst können Menschen nicht mehr zwischen Fiktion und Wahrheit unterscheiden.“ Es bleibe außerdem eine Aufgabe der Wissenschaftskommunikation und nicht zuletzt auch eine gesellschaftliche und politische Herausforderung, den Menschen für eine verantwortungsvolle Verwendung von KI-generierten Inhalten zu sensibilisieren, so die Studienverantwortlichen. www.uni-mainz.de















