Gefährliche Pattsituation: KI- und menschengenerierte Online-Inhalte gelten als ähnlich glaubwürdig

Studie der Hochschule Mainz und der JGU zeigt, dass KI-generierten Inhalten eine größere Klarheit und Anziehungskraft zugesprochen wird

29.11.2023

In einer Zeit, in der das Internet für viele Menschen zur Hauptquelle von Informationen geworden ist, hat die Glaubwürdigkeit von Online-Inhalten und deren Quellen einen kritischen Wendepunkt erreicht. Diese Besorgnis wird durch die Verbreitung von Anwendungen generativer künstlicher Intelligenz (KI) wie ChatGPT und Google Bard verstärkt. Im Gegensatz zu traditionellen Plattformen wie Wikipedia, deren Inhalte von Menschen erstellt und betreut werden, erzeugen diese KI-gesteuerten Systeme die Inhalte eigenständig – oft mit Fehlern. Eine kürzlich veröffentlichte Studie, gemeinsam durchgeführt von Forschern der Hochschule Mainz und der Johannes Gutenberg-Universität Mainz (JGU), widmet sich der Frage, wie Nutzer*innen die Glaubwürdigkeit von KI-generierten Inhalten und von Menschen erstellten Inhalten auf verschiedenen Benutzeroberflächen beurteilen. Die Studie umfasst mehr als 600 englischsprachige Teilnehmer*innen.

Prof. Dr. Martin Huschens, Professor für Wirtschaftsinformatik an der Hochschule Mainz und einer der Autoren der Studie, betont: "Unsere Studie enthüllte einige wirklich überraschende Erkenntnisse. Es zeigte sich, dass die Teilnehmer unserer Studie KI-generierte und menschen-generierte Inhalte als ähnlich glaubwürdig einschätzen und zwar unabhängig von der Benutzeroberfläche." Und er fügt hinzu: "Noch faszinierender ist, dass die Teilnehmer KI-generierten Inhalten eine höhere Klarheit und Anziehungskraft zusprachen, obwohl es keine signifikanten Unterschiede in Bezug auf die wahrgenommene Nachrichtenkompetenz und Vertrauenswürdigkeit gab – und das obwohl KI-generierte Inhalte nach wie vor ein hohes Risiko für Fehler, Missverständnisse und halluzinatorisches Verhalten aufweisen."

Die Studie wirft ein Schlaglicht auf den aktuellen Stand der Wahrnehmung und Nutzung KI-generierter Inhalte und die damit verbundenen Gefahren. Im digitalen Zeitalter, in dem Informationen leicht verfügbar sind, müssen Nutzer*innen über Unterscheidungsvermögen und kritisches Denken verfügen. Die Balance zwischen der Bequemlichkeit von KI-gesteuerten Anwendungen und verantwortungsbewusster Informationsnutzung ist entscheidend. Mit zunehmender Verbreitung von KI-generierten Inhalten müssen Nutzer sich der Grenzen und der inhärenten Vorurteile in diesen Systemen bewusst bleiben.

Prof. Dr. Franz Rothlauf von der Johannes Gutenberg-Universität Mainz sagt dazu: "Der Beitrag zeigt auf, dass im Zeitalter von ChatGPT Menschen nicht mehr zwischen Mensch und Maschine unterscheiden können. Da Maschinen allerdings nicht 'wissen', sondern statistisch raten, brauchen wir zukünftig eine Kennzeichnungspflicht von maschinengeneriertem Wissen. Sonst können Menschen nicht mehr zwischen Fiktion und Wahrheit unterscheiden." Es bleibt außerdem eine Aufgabe der Wissenschaftskommunikation und nicht zuletzt auch eine gesellschaftliche und politische Herausforderung, Nutzer*innen für eine verantwortungsvolle Verwendung von KI-generierten Inhalten zu sensibilisieren.