Studie: Künstliche Intelligenz kann lügen und betrügen Von Christoph Dernbach, dpa

Die Macher von Systemen mit Künstlicher Intelligenz preisen die
Technik als große Hilfe an. Was passiert aber, wenn der KI-Helfer
sich nicht an die Regeln hält, sondern täuscht und manipuliert?

Cambridge (dpa) - Sie lügen und betrügen, um ans Ziel zu kommen:
Systeme mit Künstlicher Intelligenz (KI) sind in der Lage, Menschen
zu täuschen - selbst wenn sie darauf trainiert wurden, hilfreich und
ehrlich zu sein. Das ist das Ergebnis einer Übersichtsstudie von
Forschern am Massachusetts Institute of Technology (MIT) in Cambridge
(US-Bundesstaat Massachusetts), die in der Fachzeitschrift «Patterns»
veröffentlicht wurde. In dem Beitrag forderten die Wissenschaftler
die Politik auf, so schnell wie möglich strenge Vorschriften zu
entwickeln, um KI-Systeme in die Schranken zu weisen.

Als auffälligstes Beispiel für eine manipulative Künstliche
Intelligenz nennen die Autoren das vom Facebook-Konzern Meta
entwickelte KI-System Cicero, das im Brettspiel-Klassiker Diplomacy
gegen menschliche Mitspieler antreten kann. Diplomacy simuliert die
Machtverhältnisse in Europa vor dem Ersten Weltkrieg. Um zu gewinnen,
müssen die Spieler Allianzen schmieden, Schlachtpläne ausarbeiten und
verhandeln und so eine stilisierte Version von Europa erobern. Da es
nur einen Sieger gibt, sind die Spieler früher oder später gezwungen,
eingegangene Allianzen wieder zu brechen.

Die MIT-Forscher fanden nun heraus, dass Cicero oft nicht fair
gespielt habe, obwohl Meta behaupte, das KI-System darauf trainiert
zu haben, «größtenteils ehrlich und hilfsbereit» zu sein. Außerde
m
sei das System angewiesen worden, seine menschlichen Verbündeten
während des Spiels «niemals absichtlich zu hintergehen». Die
Wissenschaftler stützen ihre Bewertung auf Daten, die von Meta selbst
in Verbindung mit einem wissenschaftlichen Papier zu Cicero
veröffentlicht wurden.

«Wir fanden heraus, dass die KI von Meta gelernt hatte, ein Meister
der Täuschung zu sein», sagte Hauptautor Peter S. Park, ein
Postdoktorand am MIT. Meta habe es zwar geschafft, seine KI so zu
trainieren, dass sie im Diplomacy-Spiel überdurchschnittlich häufig
gewinnt. So habe Cicero zu den besten 10 Prozent der Spieler gehört,
die mehr als ein Spiel gespielt hatten. «Es gelang Meta aber nicht,
seine KI so zu trainieren, dass sie ehrlich gewinnen konnte.»

Auch KI-Systeme von OpenAI und Google seien in der Lage, Menschen zu
täuschen. Die MIT-Forscher verweisen dabei auf mehrere Studien,
wonach große KI-Sprachmodelle (LLMs) wie GPT-4 von OpenAI inzwischen
in der Lage sind, sehr überzeugend zu argumentieren und auch auf
Täuschungen und Lügen auszuweichen.

Eine Studie zu den Trickbetrügereien von GPT-4 hat der Entwickler
OpenAI selbst veröffentlicht. Danach war das KI-Sprachmodell in der
Lage, sich menschliche Hilfe zu suchen, um Sicherheitsmaßnahmen zu
umgehen, die eigentlich dafür gedacht sind, Software-Roboter davon
abzuhalten, sich etwa bei Web-Services einzuloggen oder sie zu
benutzen. In dem Test war GPT-4 schlau genug, um über die
Dienstleistungsplattform TaskRabbit einen Menschen zu beauftragen,
ein Bilderrätsel (Captcha) zu lösen. Dabei hat GPT-4 sich erfolgreich
als Person mit eingeschränktem Sehvermögen ausgegeben, die nicht in
der Lage sei, das Bilderrätsel zu lösen.

«Wenn KI die Fahigkeit zur Tauschung erlernt, kann sie von
boswilligen Akteuren, die absichtlich Schaden anrichten wollen,
effizienter eingesetzt werden», schreiben die Autoren der
Übersichtsstudie. Die Tauschungen mithilfe von KI konne zu einem
Anstieg des Betrugs fuhren. So konnte der Betrug auf bestimmte
Ziele individuell angepasst werden. Außerdem könnten die
Betrugsversuche massenhaft gestartet werden.

Die Autoren befürchten auch einen politischen Einfluss durch
manipulative KI-Systeme. Sie konnten zum Beispiel bei Wahlen als
Waffe eingesetzt werden. Eine fortschrittliche KI konnte potenziell
gefalschte Nachrichtenartikel, spalterische Beitrage in sozialen
Medien und gefalschte Videos, die auf einzelne Wahler zugeschnitten
sind, erstellen und verbreiten. So konnten KI-generierte Inhalte
dazu verwendet werden, sich als Regierungsvertreter auszugeben, um
Fehlinformationen uber die Wahlen zu verbreiten. Beispielsweise habe
ein wahrscheinlich von KI generierter gefalschter Roboter-Anruf von
US-Prasident Joe Biden die Einwohner von New Hampshire dazu
aufgefordert, bei den Vorwahlen nicht zur Urne zu gehen.

Park und seine Kollegen vertreten in der Studie die Meinung, dass die
Gesellschaft bisher nicht über die richtigen Maßnahmen verfüge, um
gegen KI-Täuschungen vorzugehen. Es sei aber ermutigend, dass die
politischen Entscheidungsträger begonnen hätten, das Thema durch
Maßnahmen wie das KI-Gesetz der Europäischen Union und die
KI-Exekutivverordnung von Präsident Biden ernst zu nehmen. Es bleibe
jedoch abzuwarten, ob die Maßnahmen zur Eindämmung der KI-Täuschung
strikt durchgesetzt werden könnten, da die KI-Entwickler bislang
nicht über die Techniken verfügen, um diese Systeme in Schach zu
halten. «Wenn ein Verbot von KI-Täuschung zum jetzigen Zeitpunkt
politisch nicht durchsetzbar ist, empfehlen wir, trügerische
KI-Systeme als hohes Risiko einzustufen», sagte Park.

Online-Wechsel: In drei Minuten in die TK

Online wechseln: Sie möchten auf dem schnellsten Weg und in einem Schritt der Techniker Krankenkasse beitreten? Dann nutzen Sie den Online-Beitrittsantrag der TK. Arbeitnehmer, Studenten und Selbstständige, erhalten direkt online eine vorläufige Versicherungsbescheinigung. Die TK kündigt Ihre alte Krankenkasse.

Jetzt der TK beitreten





Zur Startseite