42 - Die Antwort auf fast alles

Haben Computer Vorurteile? (2022)

bis 07:30
Infomagazin
  • Stereo
  • Breitwand-Format 16:9
  • Untertitel
  • 20250906070000
VPS 07:00

Jean-Gabriel Ganascia von der Universität Sorbonne zeigt ein Beispiel für eine Korrelation, die sich erst auf den zweiten Blick erschließt: Schokoladenkonsum und Nobelpreise eines Landes - für KI ein Problem.


Bildauswahl:


Bild 1

Jean-Gabriel Ganascia von der Universität Sorbonne zeigt ein Beispiel für eine Korrelation, die sich erst auf den zweiten Blick erschließt: Schokoladenkonsum und Nobelpreise eines Landes - für KI ein Problem.


Bild 2

Katharina Zweig von der TU Kaiserslautern zeigt anhand von Kugeln auf einem Billardtisch, wie Algorithmen Entscheidungen treffen.


Bild 3

Kristian Kersting von der TU Darmstadt hat eine KI entwickelt, die aus Texten erkennen soll, welche moralischen Fragen der Mensch eher mit "Ja" und welche er mit "Nein" beantworten würde.


Bild 4

Wenn wir uns KI wie eine Maschine vorstellen, wären Daten der Rohstoff, aus dem ein neues Produkt entsteht.


Bild 5

Die Gesichtserkennungs-KI basiert auf Bilddatenbanken, in denen Menschen mit dunkler Haut unterrepräsentiert sind. Nakeema Stefflbauer untersucht die Probleme, die sich daraus ergeben.

Übersicht

Machen wir uns nichts vor: Wir haben Vorurteile. Wer kriegt den Job oder den Kredit? Wer muss wie lange ins Gefängnis? Solche Fragen müssen Menschen beantworten - doch wie können sie dabei sicher sein, rational zu entscheiden? Wäre es da nicht viel klüger, wir würden solche Entscheidungen einer künstlichen Intelligenz überlassen? In vielen Fällen geschieht das bereits - mit überraschenden Resultaten.

Themen

    Details

    Künstliche Intelligenz ist längst unter uns: Im Navi lässt sie uns Staus umfahren, in Dating-Apps die große Liebe finden, sie schlägt uns Produkte oder Filme vor. Aber zunehmend ist KI auch an schwierigeren Entscheidungen beteiligt: In China zum Beispiel kommt sie in Gerichtsprozessen zum Einsatz. Viele Unternehmen lassen Algorithmen Bewerbungen aussortieren. Und Sicherheitsbehörden weltweit benutzen künstliche Intelligenz, um Menschen in Echtzeit zu identifizieren. Unbestechlich und rein objektiv oder voreingenommen? Können wir uns eigentlich sicher sein, dass dabei alles korrekt abläuft, nach unseren moralischen Vorstellungen? Daran haben Forscherinnen und Forscher erhebliche Zweifel. Annika Buchholz vom Max-Planck-Institut für Intelligente Systeme zum Beispiel sagt: „Die KI ist genauso rassistisch wie wir Menschen.“ Das liege an den Daten über Menschen, mit der die KI arbeitet. Die stammen aus der Offline-Welt. Die Diskriminierung, die es dort gibt, ist in die Daten, mit der die KI rechnet, eingeschrieben. Die mathematischen Möglichkeiten, solche Verzerrungen zu korrigieren, sind begrenzt. Und nicht nur die Daten können ein Problem sein. Katharina Zweig von der TU Kaiserslautern untersucht, inwiefern sich auch durch die Vorgaben der Entwicklerinnen und Entwickler Fehler einschleichen. Ihr Fazit: In vielen Fällen könne die Maschine gar nicht in unserem Sinne gerecht entscheiden. Erwarten wir zu viel von den Computern? Oder können wir ihnen moralisches Handeln beibringen?

    Hinweis



    TVinfo
    X