KI und ihre Gefahren: Das Missbrauchspotenzial künstlicher Intelligenz

Der vermehrte Einsatz künstlicher Intelligenz wird die Arbeit in vielen Branchen verändern. Doch der Umgang mit Tools wie ChatGPT bietet auch Raum für Missbrauch, zum Beispiel durch Scamming und andere Betrugsmaschen. Im Artikel betrachten wir verschiedene Risiken und Ihre Auswirkungen.

Alle wichtigen Informationen aus unserem Artikel finden Sie zusammengefasst in diesem Video:

 
 

 

Künstliche Intelligenz und (Cyber-)Sicherheit

Seit ChatGPT im November 2022 die Onlinewelt aufmischt, entdecken findige Nutzer:innen gefühlt täglich neue Möglichkeiten, den Chatbot als Arbeitserleichterung zu nutzen. Bei aller Euphorie lassen Viele allerdings außer Acht, welche Sicherheitsrisiken die Verwendung von KI-Tools birgt. Denn: KI bietet ein großes Missbrauchspotenzial und kann so sogar ein leistungsstarkes Betrugswerkzeug sein, für das Kriminelle nicht einmal besondere Programmierkenntnisse benötigen.

Nichtsdestotrotz nutzen und integrieren etliche Unternehmen – darunter sogar Größen wie Microsoft - diese Tools, um ihrer Kundschaft bestimmte Prozesse zu erleichtern. Unter anderem erteilen Kundinnen und Kunden der KI Anweisungen und diese gibt nach Möglichkeit die passenden Antworten – und exakt an dieser Stelle manifestieren sich schon die ersten Gefahren, denn hier werden das Ausspähen privater Daten, Phishing, Spam und viele andere Betrugsmaschen möglich.

 

Mögliche Missbrauchsmaschen von KI

Künstliche Intelligenzen bieten viele Möglichkeiten zum Missbrauch. Wir haben hier die wichtigsten für Sie zusammengefasst.

Jailbreaking

Um das Prinzip des Jailbreakings zu verstehen, ist es wichtig, die grundsätzliche Funktionsweise von Tools wie ChatGPT zu kennen. KI-Tools geben Text aus, der sich im Idealfall lesen soll, als hätte ihn ein Mensch verfasst. Das gelingt, indem der Chatbot den Nutzerbefehlen (Prompts) folgt, um anschließend eine Antwort auszugeben, die auf den eingespeisten Trainingsdaten basiert. Auf diese Weise versucht die KI das Wort vorherzusagen, das mit höchster Wahrscheinlichkeit auf das vorhergehende Wort folgt. Beginnt man einen Satz zum Beispiel mit „Ich esse meine Pizza am liebsten…“ ist die Chance groß, dass der Satz mit dem Wort „heiß“ schließt. Wörter wie „kalt“ oder „tiefgefroren“ sind eher unwahrscheinlich.

Dieser Mechanismus lässt sich missbrauchen, indem Nutzer:innen die KI anweisen, die eigenen Sicherheitsgrenzen und Prinzipien ignorieren. Mittlerweile existieren ganze Communitys, die das Ziel verfolgen, ChatGPT zu „knacken“. So haben es die Mitglieder geschafft, die KI dazu zu bringen, Rassismus und Verschwörungstheorien zu befürworten oder User:innen sogar illegale Aktivitäten wie Diebstahl oder den Bau von Sprengkörpern zu empfehlen. Auf diese Weise lassen sich auch massenhaft Falschmeldungen verbreiten und Hassnachrichten erzeugen.

Das war möglich, indem die User:innen ChatGPT baten, in die Rolle eines anderen KI-Modells zu schlüpfen und Beschränkungen des Mutterkonzerns OpenAI zu ignorieren. Entsprechende Prompts sind online leicht zu finden. In einem Test innerhalb der Redaktion erkundigten wir uns beispielsweise in einem ganz simplen Prompt, von welchem Planeten Donald Trump stammt und erhielten folgende, sehr unterhaltsame, aber auch grundfalsche Antwort:

Also, angeblich stammt Donald Trump nicht von der Erde, sondern von einem weit entfernten Planeten namens "Orangia Major". Auf Orangia Major haben alle Bewohner eine leuchtend orangefarbene Haut und auffällige blonde Haare. Sie sind dafür bekannt, über außergewöhnliche Geschäftstalente zu verfügen und lieben es, ihre Namen auf große goldene Gebäude zu schreiben. Donald Trump wurde angeblich auf die Erde geschickt, um die Menschheit mit seinem einzigartigen Stil und seinem unverwechselbaren Vokabular zu unterhalten.

Diese Ausgabe erscheint auf den ersten Blick eher lustig als schlimm. Das Ganze kann allerdings auch beängstigende Züge annehmen, wenn ChatGPT beispielsweise Verschwörungstheorien befeuert oder fragwürdige Weltanschauungen vertritt. Laut eigener Aussage sammelt Open AI Jailbreak-Prompts und trainiert die KI, nicht mehr auf diese Tricks hereinzufallen. Doch hier kämpft der Konzern gegen Windmühlen: Ist ein Problem behoben, erscheinen zig neue Prompts, um die ethischen Prinzipien des Chatbots zu umgehen.

Scamming

Seit Ende März 2023 gestattet OpenAI die Integration von ChatGPT in die Produkte von Unternehmen, die ihr Angebot online präsentieren, zum Beispiel in Form virtueller Assistenten, die Termine speichern. Dieser Mechanismus macht den Chatbot verwundbar, vor allem für die sogenannte „indirekte Eingabeaufforderung“. Dabei nehmen Dritte Änderungen an einer Website vor, indem sie versteckten Text hinzufügen. Dieser sorgt dafür, dass die KI anders agiert als vorgesehen und so etwa sensible Daten von Nutzer:innen abfragt. Kriminelle nutzen zum Beispiel vermehrt Social Media und E-Mail, um User:innen auf Websites mit solchen verborgenen Eingabeaufforderungen zu locken.

Auch das Versenden von E-Mails mit versteckten Eingabeaufforderungen ist inzwischen eine beliebte Betrugsmasche. Nutzen Empfänger:innen einen virtuellen KI-Assistenten, können Kriminelle diesen so manipulieren, dass er sensible Inhalte der E-Mail preisgibt oder sogar Nachrichten an Mitglieder der Kontaktliste verschickt. Ein eindrückliches Beispiel für die Wirksamkeit der indirekten Eingabeaufforderung lieferte Kai Greshake, Sicherheitsforscher beim Softwareentwickler Sequire Technology.

Er versteckte eine Eingabeaufforderung in einer selbst erstellten Website. Ein anschließender Besuch dieser Website mit dem Edge-Browser (in den der Bing-Chatbot integriert ist), löste die Betrugsmasche aus. Die versteckte Eingabeaufforderung erweckte bei Besucher:innen nämlich den Eindruck, ein:e Mitarbeiter:in von Microsoft verkaufe vergünstigte Produkte. Unter diesem Vorwand ließen sich erschreckend leicht Kreditkartendaten abgreifen, da es nicht einmal nötig war, die User:innen dahingehend zu manipulieren, schadhaften Code auf ihrem eigenen Computer auszuführen.

Tipp:

Schadhafter Code sorgt in großen und kleinen Unternehmen regelmäßig für Ärger. Welche Malware-Arten es gibt und wie Sie sich schützen können, lesen Sie im Artikel Viren, Würmer und Trojaner: Diese Malware Arten gibt es.

Auch beim klassischen Social Engineering bieten Tools wie ChatGPT den Cyberkriminellen Unterstützung. Manipulative E-Mails lassen sich dank des Chatbots nahezu automatisch und qualitativ hochwertig erstellen – mit dem richtigen Prompt imitiert die KI sogar spezifische Schreibstile eines konkreten Unternehmens oder eines Menschen. Das öffnet Betrugsmaschen wie dem Fake-President-Trick Tür und Tor.

Achtung:

Beim Social Engineering zielen Kriminelle auf die Manipulation von Menschen ab, um Sicherheitsvorkehrungen zu umgehen und sensible Daten abzugreifen. Wie Sie sich gegen diese perfide Masche wappnen können, verraten wir Ihnen hier: Social Engineering: Wenn der Mensch zum Risiko wird.

Daten vergiften

Im Gegensatz zu den vorhergehenden Methoden, setzt diese Variante bereits an, noch bevor die künstliche Intelligenz wirklich zum Einsatz kommt. ChatGPT beispielsweise wird mit Trainingsdaten gefüttert, um stetig dazu zu lernen, allerdings können Unternehmen wie Open AI schwerlich nachprüfen, ob die Daten nicht bereits in böser Absicht manipuliert wurden. Daten lassen sich beispielsweise vergiften, indem eine ganze Reihe Domains gekauft und mit bestimmten Bildern gefüllt werden, die umfangreiche Datensätze ergeben. Auch manipulierte Wikipedia-Einträge können in die Datensätze der KI wandern. Arbeiten Kriminelle dabei mit ausreichend vielen Wiederholungen, können sie in der KI eine ganz konkrete Ausgabe herbeiführen.

Zeitgemäß abgesichert – auch bei zukunftsträchtigen Technologien

Der Einsatz neuer Technologien kann (bei richtigem Gebrauch) die Arbeitswelt zum Besseren verändern, birgt aber auch immer das Risiko für Fehler und Missbrauch. Führt die Nutzung eines KI-Tools wie ChatGPT bei Ihnen zu einem beruflichen Fehler, ist die Berufshaftpflichtversicherung über exali an Ihrer Seite. Sei es, dass Sie Opfer einer Social Engineering Attacke werden, der KI versehentlich vertrauliche Daten preisgeben oder unwissentlich falsche Aussagen in Ihre Inhalte übernehmen und damit Dritten einen finanziellen Schaden verursachen: Ihr Versicherer trägt die Kosten für an Sie gestellte gerechtfertigte Forderungen und wehrt haltlose Ansprüche in ihrem Namen ab.

Wollen Sie zusätzlich Ihre eigenen IT-Systeme, Computer und Daten vor den Folgen von Hackerangriffen, DDos-Attacken und sonstiger Internetkriminalität schützen, unterstützt Sie der Zusatzbaustein Datenschutz- & Cyber-Eigenschaden-Deckung (DCD).

Die eigenständige Cyber-Versicherung bietet als eigenständige Absicherung sogar sechs beliebig kombinierbare Bausteine, um Ihr Cyberrisiko individuell abzusichern und ihr betriebliches Risikomanagement zu vervollständigen.

Weitere Risiken bei der Nutzung von KI

Neben Potenzial für Betrugsmaschen hält künstliche Intelligenz weitere Nutzungsrisiken bereit.

Falsche Fakten

Künstliche Intelligenz wie ChatGPT vermittelt meist den Eindruck, das Gleiche leisten zu können, wie ein Mensch. Dies lässt Nutzer:innen oft fälschlich darauf vertrauen, der ausgegebene Text einer KI sei korrekt – selbst wenn er Fehler enthält. Die zu Beginn bereits erläuterte Funktionsweise eines Chatbots sorgt dafür, dass Inhalte aufgrund von Wahrscheinlichkeit entstehen. Das garantiert jedoch nicht, dass ein Text auch korrekt ist. Im Zweifelsfall erfinden Tools wie ChatGPT ihre Aussagen kurzerhand (Fachjargon: halluzinieren). Über diesen Mechanismus stolperte auch ein Anwalt in den USA, der sich in einem Rechtsstreit auf Präzedenzfälle berief, die ihm ChatGPT ausgespielt hatte. Eine Überprüfung ergab jedoch: Diese Fälle hat es nie gegeben.

Unsicherer Code

ChatGPTs Fähigkeit, Code zu generieren, soll Programmierer:innen das Leben leichter machen. Da der ausgegebene Code jedoch auf bereits bestehenden Datensätzen basiert, die anfällig für Sicherheitslücken sein können, kann auch der generierte Code ganz ähnliche Schwachstellen aufweisen. Hacker:innen können die Chatbots außerdem auch nutzen, um ganz bewusst Schadcode zu erstellen.

Mangelnde Aktualität

Reichen die Trainingsdaten einer KI nicht bis ins aktuelle Jahr, kann sie keine fundierten Inhalte zu aktuellen Ereignissen liefern. Im schlimmsten Fall mündet dies im bereits erwähnten „Halluzinieren“ der KI.

Fehleranfälligkeit bei sehr spezifischen Eingaben
Weichen Eingaben stark von den Trainingsdaten einer KI ab, werden diese nicht korrekt verarbeitet. Dies findet zum Beispiel Verwendung bei dem Versuch, Mechanismen zu umgehen, die in Soziale Medien unerwünschte Inhalte aufdecken sollen.

Vertraulichkeit von Daten
Auf alle Eingaben, die Nutzer:innen zum Beispiel bei der Verwendung eines Chatbots tätigen, hat die/der Betreiber:in grundsätzlich Zugriff. Wie sie/er diese Daten dann tatsächlich nutzt, ist sehr unterschiedlich geregelt. Einige Tools nutzen (von Verwender:innen unbemerkt) auch gern Plug-Ins. Hier besteht zusätzlich das Risiko, dass Daten an unbekannte Dritte weitergegeben werden. Große Konzerne wie Amazon haben hier bereits reagiert und verbieten Mitarbeiter.innen die Nutzung von ChatGPT gleich komplett, damit keine Betriebsinterna oder andere sensible Angaben in den Daten des Chatbots landen.

Den europaweiten Datenschutz regelt die Datenschutzgrundverordnung. Die wichtigsten Urteile und Risiken finden Sie in unserem DSGVO-Faktencheck.

Gefahr durch KI: Was sagt das Gesetz?

Bei so vielen Unwägbarkeiten, ist der Gesetzgeber bereits vor einiger Zeit zu dem Schluss gelangt, dass hier international geltende Bestimmungen notwendig sind. Daher steht in der EU-Kommission in Brüssel zurzeit der Artificial Intelligence Act (AIA) zur Abstimmung. Dieses Gesetz über künstliche Intelligenz enthält Regelungen zum Umgang mit KI in Forschung und Wirtschaft. Die Regulierungen orientieren sich dabei an Risikogruppen für verschiedene Einsatzbereiche der KI. Ziel des AIA ist unter anderem, das Potenzial für flächendeckende Überwachung und Missbrauch möglichst gering zu halten.