Kritiker sehen in ihm eine Art digitalen Hexenmeister, der in einem Zeitalter ohne Privatsphäre ethisch unglaublich fragwürdige Experimente durchführt. Er selbst sieht sich als Forscher, der die Öffentlichkeit über die Möglichkeiten von Big Data und künstlicher Intelligenz aufklärt. Die Rede ist vom Psychologen Michal Kosinski (36). Er hat Technologien entwickelt, die auf Basis von Facebook-Likes Personenprofile erstellen und allein durch die KI-Auswertung von Fotos intimste Details bis hin zur sexuellen Orientierung aus einem Gesicht herauslesen. In den Händen einer Diktatur eine potenziell tödliche Waffe.
„Ich habe die Bombe nicht gebaut. Ich habe den Menschen nur gezeigt, dass sie existiert“, zitiert der britische „Guardian“ am Samstag den in Warschau geborenen Psychologen und Sohn eines Programmiererpaares, der heute an der Universität Cambridge lehrt. Kosinski hat sich in den letzten Jahren den Ruf eines Vordenkers erarbeitet, der mithilfe riesiger Datenberge und Künstlicher Intelligenz Zusammenhänge erkennen kann, von denen man nicht gedacht hätte, dass sie existieren. Kosinski schließt nicht nur von Facebook-„Likes“ auf Persönlichkeit oder Intellekt eines Menschen. Er errechnet sogar aus Bildern des Gesichts, welche sexuelle Orientierung er hat.
Kosinski-Vortrag für russische Regierungsmitglieder
Kosinskis Forschung hat eine gewisse Sprengkraft und hat dem jungen Psychologiedoktor aus Polen harsche Kritik von Kollegen - manche einer fühlt sich von seinen Methoden an Rassenlehre erinnert - und Bewunderung von Marketingspezialisten und Politikern eingebracht. Vor einem Jahr hat ihn ein Hubschrauber in einen Moskauer Vorort geflogen, wo er russischen Politikern wie Premier Dimitri Medwedew und Außenminister Sergej Lawrow erklärt hat, was man allein auf der Basis der im Internet hinterlassenen Spuren und des Gesichts eines Menschen alles über diesen in Erfahrung bringen und wie man diese Informationen verwenden kann. Kosinskis Arbeit hat auch die manipulativen Kampagnen der Datenanalysefirma Cambridge Analytica inspiriert. Aber wie funktionieren seine Techniken genau?
Neuronale Netzwerke erkennen Muster im Datenhaufen
In dem Bericht erklärt der Forscher seine Methoden. Er nutze riesige Datenberge - etwa solche, die er mithilfe von Facebook-Umfragen gewonnen hat - und nutzt sogenannte neuronale Netzwerke zur schnellen parallelen Verarbeitung dieser Datenmengen, um Muster darin zu erkennen. Mit neuen Algorithmen zur Gesichtserkennung kann er laut eigenen Angaben sogar recht zuverlässig vorhersagen, ob jemand homosexuell oder ein Gewalttäter ist. Technologie, die nach Zukunftsmusik klingt, aber längst im Einsatz ist. Bei Datensöldnern wie Cambridge Analytica - nach dem Skandal um die Unterstützung des Trump-Wahlkampfes machte die Firma dicht, das Management heuerte umgehend bei der Neugründung Emerdata an - ebenso wie bei Regierungen und Behörden.
Verrät das Gesicht, wenn jemand pädophil ist?
Behörden werden etwa von der von einem israelischen Geheimdienstveteran gegründeten Firma Faception mit der nötigen Technologie beliefert. Sie verspricht, auf Flughäfen und an öffentlichen Plätzen per Gesichtsscan vorhersagen zu können, wie intelligent jemand ist, ob es sich um einen Straftäter handelt, oder ob man es mit einem potenziellen Kinderschänder zu tun hat. „Wir wissen beispielsweise, dass es einen Zusammenhang zwischen dem Testosteronlevel und der Wahrscheinlichkeit, ein Verbrechen zu begehen gibt, und dass das auch mit Gesichtsmerkmalen verknüpft ist. Und das ist nur eine Verbindung. Es gibt Tausende Millionen andere, die wir noch nicht kennen, die Computer aber sehr einfach entdecken können“, erklärt Kosinski.
„War ehrlich schockiert, dass es so einfach ist“
Auch wenn Kosinski die Nutzung der Technologie auf solche Arten nicht unbedingt gutheißt, ist er doch überzeugt davon, dass seine Methoden funktionieren. „Ich war ehrlich gesagt schockiert, als ich entdeckt habe, dass es für einen Algorithmus so einfach ist, zwischen homo- und heterosexuellen Menschen zu unterscheiden“, sagt er im Gespräch mit dem „Guardian“. Ihm sei zu Beginn selber nicht klar gewesen wie es möglich war, doch sein Algorithmus habe nach einer Weile bei Männern mit 91- und bei Frauen mit 83-prozentiger Genauigkeit die sexuelle Orientierung prognostiziert. Kosinski hatte ein „KI-Schwulenradar“ entwickelt, wie es die Zeitung „Economist“ formulierte. Es spricht auf Gesichtsmerkmale an. „Wir erwarten bei schwulen Männern einen kleineren Kiefer und ein kleineres Kinn, schmalere Augenbrauen, lange Nasen und hohe Stirn.“
Vergleiche mit Schädelvermessern und Rassenlehre
Die Ergebnisse erzeugten sofort einen Aufschrei bei anderen Wissenschaftlern, die Parallelen zu Schädelvermessern und Rassenlehre-Befürwortern des 19. Jahrhunderts zogen. Alexander Tororov, Psychologe an der Princeton-Universität, zerpflückte Kosinskis Arbeit, sprach von einer „neuen Ära des wissenschaftlichen Rassismus“, zog in einem Essay Vergleiche mit Nazi-Methoden. Tororov und andere Forscher argumentierten, Kosinskis Algorithmus könne ja auch auf andere Faktoren als die Gesichtsform - etwa Schminke oder Rasur - angesprochen haben. Kosinski beharrt indes darauf, dass seine Erfindung funktioniert. Eine Erfindung, die in Homosexualität ablehnenden Ländern wie Russland oder Saudi-Arabien potenziell gefährlich sein könnte, die ihr Entdecker aber nicht unter Verschluss halten wollte. „Es wäre moralisch falsch, so etwas unter Verschluss zu halten.“ Wenn es nämlich funktioniere, wie Kosinski das demonstriert habe, müsse man davon ausgehen, dass es längst bei Regierungen und Konzernen Anwendung finde.
Regierungen und Geheimdienste stehen Schlange
Tatsächlich interessiert sich allerdings nicht unbedingt die breite Öffentlichkeit für Kosinskis Forschung. Ihr Interesse an Datenschutz und ungefragter Kategorisierung zu Marketingzwecken ebbt nach großer Empörung über den Cambridge-Analytica-Skandal längst wieder ab. Kosinski lockt aber andere Akteure an. Regierungen wie jene von Russland, die in Kosinskis Möglichkeiten zur Kategorisierung und somit letztlich auch Beeinflussung von Menschen Potenzial erkennt. Unternehmen wie Faception, die in der KI-Gesichtsauswertung ein gutes Geschäft sehen. Und Geheimdienste, die bei der Überwachung der Bürger ob der Datenmengen, mit denen sie hantieren, über jede maschinelle Unterstützung glücklich sind.
„Glauben Sie, die CIA stellt sich als solche vor?“
Dass die von Kosinski maßgeblich mitbegründeten Technologien in die falschen Hände geraten, kann nicht ausgeschlossen werden. „Glauben Sie, wenn ein Geheimdienst an einen herantritt, dass sie sich dann mit ‚Hi, wir sind die CIA!‘ vorstellen?“, fragt Kosinski. „Nein, die stellen sich als Start-up vor, das sich für Ihre Arbeit interessiert und nach einem Berater sucht.“ Sage man Einladungen solcher Akteure zu, finde man sich schnell in einem Vortragsraum voll Uniformierter wieder. Für Kosinski gar nicht der schlechteste Gedanke. „Ich denke, dass die Leute, die für einen Überwachungsstaat arbeiten, mehr als jeder andere zu wissen verdienen, was sie da eigentlich tun und welche Risiken es birgt“, sagt der Forscher.
Die Privatsphäre, so Kosinski, sei ohnehin bereits Vergangenheit. „Es ist ein verlorener Krieg. Wir sollten uns lieber darauf konzentrieren, unsere Gesellschaft so zu organisieren, dass wir sicherstellen, dass auch die Post-Privatsphäre-Ära ein bewohnbarer und schöner Ort zum Leben ist.“
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.