Mehrere aktuelle Studien von Organisationen wie Newsguard zeigen, dass Chatbots wie ChatGPT dazu neigen, Desinformation und Propaganda, insbesondere russische, weiterzugeben. Reporter ohne Grenzen (RSF) fordert die Entwickler dieser Systeme künstlicher Intelligenz (KI) sowie die Behörden auf, drastische Massnahmen zu ergreifen, um zuverlässige journalistische Informationen aufzuwerten und so das Recht auf Information zu verteidigen.

Eine ernüchternde Studie, die im Juni 2024 von dem auf die Identifizierung von Desinformationsquellen spezialisierten Unternehmen Newsguard veröffentlicht wurde, besagt, dass Chatbots wie ChatGPT völlig durchlässig für Propaganda- und Desinformationskampagnen sind. Die zehn grössten Chatbots auf dem Markt, die Newsguard geprüft hat (darunter ChatGPT von OpenAI) lieferten wiederholt falsche Informationen. Dies war insbesondere bei Antworten zu den US-Wahlen der Fall: Hier wurden russische Desinformationselemente aufgriffen, die zuvor auf gefälschten Nachrichtenseiten veröffentlicht worden waren.

Diese Erkenntnisse reihen sich in eine ganze Reihe weiterer Berichte ein, die auf die Gefahr hinweisen, welche Chatbots für die Integrität von Online-Informationen und damit für demokratische Gesellschaften darstellen. Bereits im Oktober 2023 veröffentlichte die NGO Algorithm Watch eine Studie, in der sie auf die Fehlfunktionen von Konversationssystemen und deren Neigung, in Wahlkampfzeiten falsche Informationen zu erstellen, hinwies. Sie hielt diese Technologien zu Recht für «unreif und gefährlich». Für RSF ist der Befund klar: Chatbots mit generativer KI recyceln unterschiedslos Desinformations- und Propagandainhalte, die sie aus dem Internet herauspicken, ohne dass die Öffentlichkeit die Mittel hat, zuverlässige Informationen darin zu unterscheiden.

Chatbots können zu massiven Propagandaträgern werden. Es ist zwingend notwendig, diese Systeme gemäss den europäischen Standards der regionalen Gesetzgebung des AI Act als Hochrisikosysteme einzustufen und strenge technische Standards durchzusetzen, damit sie das Recht der Bürger auf Information respektieren. Diese Bots sowie die von ihnen genutzten Suchmaschinen müssen die Förderung vertrauenswürdiger Informationsquellen gewährleisten, die durch Selbstregulierungsstandards wie der Journalism Trust Initiative (JTI) gekennzeichnet sind. Ihre Entwickler müssen sich zudem dazu verpflichten, Medien zu unterstützen, die die Grundprinzipien des Journalismus respektieren: Genauigkeit, Unparteilichkeit und Rechenschaftspflicht.

 

Vincent Berthier, Leiter des Technologie-Desks von RSF

Die Verbreitung von Propaganda über Chatbots wirft entscheidende Fragen zur Zuverlässigkeit der von KI erzeugten Informationen auf. Wenn die Eingabedaten falsch oder so gestaltet sind, dass sie die Öffentlichkeit täuschen, werden auch die von den Chatbots gelieferten Antworten falsch sein. Aus diesem Grund hatte RSF gefordert, dass der europäische AI-Act KI-Systeme, die Informationen verbreiten, als «hohes Risiko» für die Gesellschaft einstuft.

RSF fordert eine sofortige und starke Reaktion der Regierungen. Damit sollen die Entwickler von KI-Systemen gezwungen werden, Dienste zu entwickeln, die das Recht der Bürger auf Zugang zu verlässlichen Informationen nicht beeinträchtigen – im Einklang mit den Empfehlungen der Organisation zu KI und dem Recht auf Information. Die Innovation und der ungezügelte Wettbewerb der KI-Entwickler dürfen keinesfalls das Grundproblem der Künstlichen Intelligenz verschleiern: Ohne hochwertige Daten gibt es keine zuverlässige KI.

Partagez cet article !