Künstliche Intelligenz: Muss der Programmierer zahlen, wenn die Software Fehler macht?

Das Garagentor eines Nachbarn öffnet sich automatisch, als dieser in die Einfahrt einbiegt, gleichzeitig gehen das Licht im Wohnzimmer und die Kaffeemaschine in der Küche an. Ein Geschäftsmann lässt sich in einem Auto ohne Fahrer zu einem Termin fahren. Es handelt sich dabei nicht um die Ideen von Steven Spielberg für einen neuen Science-Fiction-Streifen. Künstliche Intelligenz (KI) ist Realität. Sie hat das Zeug zum Weltverbessern, kann aber auch großen Schaden anrichten…

Wenn KI sich verselbständigt: „Tay“ macht, was sie will

Im Falle von Software-Riese Microsoft ist Künstliche Intelligenz wohl eher ein Fluch. Das amerikanische Unternehmen ist nämlich mit seinem Chatbot „Tay“ ordentlich ins Fettnäpfchen getreten. Die Idee von Microsoft war es, einen „Chat-Roboter“ (kurz: Chatbot) auf verschiedenen sozialen Netzwerken durch die Kommunikation mit anderen Usern lernen zu lassen.

Tay sollte sich dabei vor allem an Amerikaner zwischen 18 und 24 Jahren richten. In der Interaktion mit den Usern wurde sie immer intelligenter. Doch dabei lernte sie eben auch von Menschen mit negativen Tweets, Posts und Kommentaren. Das wurde ihr schließlich zum Verhängnis: Sie twitterte menschenverachtende Inhalte, sprach sich unter anderem für Hitler und gegen die jüdische Bevölkerung aus. Nach nur 24 Stunden war das Projekt gescheitert und Microsoft legte Tay „schlafen“; seitdem ist sie nicht wieder aufgewacht.

Künstliche Intelligenz: Was ist das?

Bei dem Forschungsgebiet, einem Teilgebiet der Informatik, wird versucht, Mechanismen zu entwerfen, mit denen Maschinen oder Computer intelligentes Verhalten eigenständig erlernen können. Ein Computer wird mittels Algorithmen so programmiert, dass er selbständig Probleme lösen kann und dabei lernt. Je länger die Software im Einsatz ist, umso „intelligenter“ und vielseitiger soll sie werden – ganz automatisch, ohne weiteren Programmieraufwand.

KI: Technische Möglichkeiten vs. rechtliche Probleme

KI kann unser tägliches Leben verbessern, das Potenzial dieser Technologie ist schier unbegrenzt. Aber neben den Chancen gibt es auch Risiken und rechtliche Probleme. Der rechtsradikale Chatbot Tay hat dabei „nur“ mit Worten verletzt, doch künstliche Intelligenz wird bereits in vielen Bereichen eingesetzt – zum Beispiel im Automobilbereich – die auch körperliche Auswirkungen auf Menschen haben können.

Haftungsfrage: Was passiert, wenn eine KI einen Schaden verursacht?

Wer haftet in diesem Fall für Fehler, die die KI-Software macht? Auf diese Frage gibt es (noch) keine klare Antwort. Wie bei allen neuen Technologien müssen erst einmal neue Gesetze dazu erlassen werden und dann muss die Rechtsprechung zeigen, wie in welchem Fall entschieden wird.

Und das kann dauern. Schließlich ist kein Fall wie der andere und die Schuldfrage ist nicht einfach zu klären. Oder hätte der Softwareentwickler einer KI für ein autonom fahrendes Auto wissen müssen, dass dieses in einem tödlichen Unfall verwickelt sein könnte, wie vor kurzem bei einer Uber-Testfahrt in Tempe, Arizona, passiert? Aber wer ist an so einem Unfall schuld? Womöglich der Softwareentwickler? Das ist bisher noch nicht genau geklärt.

Klar ist aber, dass eine KI in einem Schadenfall schlecht selbst haften kann, schließlich handelt es sich um eine Maschine. Software-Entwicklern wird nichts anderes übrig bleiben, als sich gut auf alle Möglichkeiten vorzubereiten, denn im Moment werden wohl am ehesten die Hersteller von Künstlicher Intelligenz zur Rechenschaft gezogen.

Abgesichert dank offener Berufsfelddeckung für IT-Experten

Durch den rasanten Fortschritt der Technik ist es besonders wichtig, bei der Wahl der Berufshaftpflicht auf eine offene Berufsbilddeckung zu achten. Denn bei einer Berufshaftpflicht mit offener Berufsfelddeckung wie die IT-Haftpflicht über exali.de sind alle Tätigkeiten eines Berufsbereichs versichert, auch diejenigen, die – wie die Künstliche Intelligenz – in Zukunft erst hinzukommen. Vor unvorhersehbaren Entwicklungen einer Künstlichen Intelligenz schützt das dann zwar nicht, aber die Konsequenzen sind damit immerhin bestens versichert.

 

Weitere interessante Artikel:

© Sebastian Neumair – exali AG