Haben Computer Vorurteile?
Samstag, 18. Mai 2024, 06:05 bis
06:35 Uhr
Künstliche Intelligenz ist längst im Alltag angekommen: Im Navi lassen sich mit ihr Staus umfahren, in Dating-Apps die große Liebe finden, KI schlägt Produkte oder Filme vor. Aber zunehmend ist KI auch an schwierigeren Entscheidungen beteiligt: In China zum Beispiel kommt sie in Gerichtsprozessen zum Einsatz. Viele Unternehmen lassen Algorithmen Bewerbungen aussortieren. Und Sicherheitsbehörden weltweit benutzen künstliche Intelligenz, um Menschen in Echtzeit zu identifizieren.
Die zweifelhafte Moral der KI
Unbestechlich und rein objektiv oder voreingenommen? Kann man sich eigentlich sicher sein, dass dabei alles korrekt abläuft nach moralischen Vorstellungen? Daran haben Forscherinnen und Forscher erhebliche Zweifel. Annika Buchholz vom Max-Planck-Institut für Intelligente Systeme zum Beispiel sagt: "Die KI ist genauso rassistisch wie wir Menschen." Das liege an den Daten über Menschen, mit denen die KI arbeitet. Die stammen aus der Offlinewelt. Die Diskriminierung, die es dort gibt, ist in den Daten, mit der die KI rechnet, eingeschrieben. Die mathematischen Möglichkeiten, solche Verzerrungen zu korrigieren, sind begrenzt.
Menschliche Fehler schleichen sich ein
Und nicht nur die Daten können ein Problem sein. Katharina Zweig von der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau untersucht, inwiefern sich auch durch die Vorgaben der Entwicklerinnen und Entwickler Fehler einschleichen. Ihr Fazit: In vielen Fällen könne die Maschine gar nicht im Sinne des Menschen gerecht entscheiden. Wird also zu viel von den Computern erwartet? Oder kann man ihnen moralisches Handeln beibringen?
- Redaktion
- Sara Helmig