EU-Gesetz zu „lax“

AK warnt vor Gefahren künstlicher Intelligenz

Web
29.04.2022 07:06

Ein Avatar, der im Chat antwortet; ein Algorithmus, der über Kreditanträge entscheidet: Künstliche Intelligenz ist Teil unseres Alltags. Die Schattenseiten der Technologie werden dabei oft ausgeblendet, warnen nun Experten der Arbeiterkammer und des Instituts für Technikfolgen-Abschätzung. Gefahr lauert demnach vor allem dort, wo KI anhand riesiger Datenmengen eine Entscheidung trifft, deren Zustandekommen für Menschen nicht mehr nachvollziehbar ist.

In welchen Bereichen des Lebens sich der Einsatz von KI durchsetzen wird, ist noch offen - dementsprechend weitgefasst präsentiert sich auch das kürzlich verabschiedete KI-Gesetz der Europäischen Kommission. Angedacht war es, damit - ähnlich dem EU-Gesetz zur Datenschutzgrundverordnung - den internationalen Goldstandard zu setzen.

„Tatsächlich beschränken sich die Regulierungen aber auf ein absolutes Minimum“, stellt Daniela Zimmer, Datenschutzexpertin der Arbeiterkammer, fest. „Nur für hochriskante KI-Anwendungen wurden Spielregeln definiert - und sogar in extrem sensiblen Bereichen, wie etwa Kreditwürdigkeitsprüfungen, oder biometrischen Fernidentifikationen, sind die Verbote löchrig.“

AK-Expertin kritisiert Gesetz als zu „lax“
Anlass, das EU-Gesetz zu konzipieren war die Situation in China, wo ein Social-Scoring-System Menschen gläsern hat werden lassen. „Deswegen hat die Kommission auch verboten, dass Behörden Menschen nach ihren Eigenschaften und ihrem Verhalten kategorisieren dürfen - aber auch nur dann, wenn eine dadurch resultierende Schlechterstellung unverhältnismäßig ist“, kritisiert Zimmer den „laxen“ Ton des Gesetzestextes.

Was es brauche, sei eine rechtliche Handhabe für Menschen, denen durch eine KI-Entscheidung finanzielle Schäden erwachsen sind, sowie die Möglichkeit, die Beurteilung etwa der Kreditwürdigkeit oder auch die Auswertung persönlicher Daten durch eine KI abzulehnen, sagt die Expertin.

Entscheidungsfindung schwer nachvollziehbar
Das größte Problem beim Einsatz von KI sei derzeit jedenfalls die mangelnde Transparenz bei der Entscheidungsfindung: „Die KI eignet sich mittels Daten in einem Lernprozess ein Modell an und wartet mit einem Ergebnis auf, das auf Wahrscheinlichkeit beruht“, erläutert Walter Peissl vom Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften. „Damit ist es für einen Menschen oft schwer nachvollziehbar, wie es zu einer Entscheidung kam - aber nur, wenn ich ein System verstehe, kann ich Verantwortung dafür übernehmen“.

Es sei ein gesellschaftlicher Diskurs über KI nötig, in dem das Recht auf Information, aber auch die Verständlichkeit der Entscheidungsfindung festgelegt werden sollte, so der Experte. Letztlich brauche es auch einen rechtlichen Rahmen zur Überprüfung von Entscheidungen. „Die Letztverantwortung sollte aber auf jeden Fall auch in der heutigen Zeit bei natürlichen, juridischen Personen liegen“, sagt Peissl.

Loading...
00:00 / 00:00
Abspielen
Schließen
Aufklappen
Loading...
Vorige 10 Sekunden
Zum Vorigen Wechseln
Abspielen
Zum Nächsten Wechseln
Nächste 10 Sekunden
00:00
00:00
1.0x Geschwindigkeit
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.



Kostenlose Spiele
Vorteilswelt