Ist Künstliche Intelligenz gerecht?

Blog

Ist Künstliche Intelligenz gerecht?

by Jan Frederik Bruns

Der Begriff „Künstliche Intelligenz“ (KI) ist mittlerweile in aller Munde. In den 1940er bis 1950er Jahren wurden die ersten Grundlagen für KI mit Computern gelegt. Alan Turing veröffentlichte das Papier „Computing Machinery and Intelligence“ worin er über Maschinen spekulierte, die denken können.

Der Turing Test

Er entwickelte den „Turing Test“, bei dem ein Mensch herausfinden soll, ob er mit einem anderen Menschen oder einer Maschine kommuniziert. Der Test gilt als bestanden, wenn eine Unterscheidung zwischen Mensch und Maschine nicht mehr möglich ist.

ChatGPT und Co

KI weckt Begehrlichkeiten und Befürchtungen. Die einen erhoffen sich mehr Effizienz und bessere Entscheidungen, andere befürchten die Übernahme der Welt durch Maschinen. Die Software ChatGPT hat in jüngster Zeit Spekulationen in beide Richtungen weiter beflügelt. Mit ChatGPT lassen sich Dossiers automatisiert in erstaunlicher Prägnanz erstellen, sodass es scheint, als hätte ein menschlicher Redakteur die Texte erstellt. Die Texte dieses Studienhelfers wurden übrigens von realen Menschen geschrieben.

Kann KI Gerechtigkeit?

So stellt sich auch die Frage, ob KI gerechte Entscheidungen trifft. Die Bandbreite der automatisierten Anwendungen reicht dabei von der Berechnung der schnellsten, kürzesten oder umweltfreundlichsten Fahrtroute bis hin zur Entscheidung über Leben und Tod von Menschen durch autonome Waffensysteme. Erschwert wird die Frage nach einer gerechten Entscheidung durch deren Facettenreichtum: Die kürzeste Fahrtroute entlastet die Umwelt und den Geldbeutel, sorgt aber möglicherweise für ein zu hohes Verkehrsaufkommen auf Nebenstrecken und in Wohngebieten. Auch die Transparenz von Entscheidungskriterien ist bei KI meist nicht gegeben, was bei Waffensystemen ein großes Problem darstellt.

Im Film I-Robot wird auch das moralische Dilemma thematisiert: Durch einen Unfall versinkt ein Auto in einem Fluss und der zu Hilfe eilende Roboter entscheidet per KI, das Kind im Fahrzeug zu retten und die Mutter ertrinken zu lassen, da die Überlebenswahrscheinlichkeit des Kindes ein paar Prozent höher lag. Diese hängt aber mitunter am Alter, Geschlecht, Krankheiten, etc. des betroffenen Menschen. Die Programmierung der Algorithmen ist daher eine enorme ethische Herausforderung.

Diskriminierende KI

In der Vergangenheit ist es bereits zu problematischen KI-Entscheidungen gekommen: Apple veröffentlichte 2019 eine Kreditkarte, welche sofort durch eine KI mit einem Kreditlimit ausgestattet wurde. Das Problem war, dass Frauen bei gleichem Einkommen ein geringeres Kreditlimit bekamen als Männer. So lag z.B. bei dem Apple Gründer Steve Wozniak das Limit 10mal höher als bei seiner Frau, obwohl beide das gleiche Bankkonto benutzten.

Was ist KI?

KI ergibt sich aus dem Zusammenspiel von Algorithmen und Trainingsdaten. Mit den Daten werden sogenannte neuronale Netze angelernt. So kann der Computer z.B. lernen, was impressionistische Bilder sind. Aus den vorhandenen Daten kann dann ein neues impressionistisches Bild generiert werden. Ist der Trainingssatz jedoch fehlerhaft und beinhaltet Bilder anderer Stile, bekommt die KI ein Bias. Doch selbst bei richtigen Daten ist oft nicht klar, an was die KI nun festmacht, was ein impressionistisches Bild ist. Das gleiche gilt im Bereich gerechter Entscheidungen von KI: Es hängt maßgeblich an den Daten, mit denen sie angelernt wurde. Der Algorithmus kann natürlich um Korrekturfaktoren ergänzt werden, damit Entscheidungen entsprechend unserer Vorstellungen gerechter werden. Eine ausgereifte KI wird auch Einzelfallentscheidungen, Härtefälle und andere Besonderheiten berücksichtigen können – Algorithmen sind da sehr erweiterbar.

Jedoch gilt: KI ist nur so gerecht, wie die Trainingsdaten und der Algorithmus gerecht sind. Dafür ist aber der Mensch als Gestalter verantwortlich. Es kann daher seitens der KI, gewollt oder ungewollt, zu ungerechten Entscheidungen bzw. zu einem Bias kommen.