Hamis pornó
Deepfake kutatás: a műsorvezető megtalálja önmagát
Az úgynevezett deepfake-ek, amelyekben többnyire prominens emberek arcát szerkesztik bele explicit videofelvételekbe, aggasztó tendenciát tapasztalnak, nem utolsósorban a mesterséges intelligencia elterjedése óta. Egy brit riporter egy erről szóló cikket akart kutatni - és rögtön áldozatul is esett.
Cathy Newman oknyomozó újságíró a The Timesban számolt be arról, hogy munkája miatt tulajdonképpen hozzászokott a zavaró videofelvételekhez. "Tagadhatatlanul az én arcom volt, de szakszerűen ráhelyezték valaki más meztelen testére" - írta le felfedezését.
Newman "teljesen dehumanizált"
A felfedezett videó azonban "groteszk paródia" volt - például a jellegzetes göndör frizuráját egyenes hajjal helyettesítették. Úgy érezte, hogy a videó "teljesen dehumanizálta", és megdöbbentette, hogy a még mindig ismeretlen elkövető hogyan volt képes "szexuális tevékenységek sorára kényszeríteni" a könnyen hozzáférhető technológia segítségével.
Newman és csapata valójában nem saját magát tekintette a kutatás középpontjának - eredetileg olyan prominens példákat akartak felhasználni, mint Taylor Swift, Giorgia Meloni, Jenna Ortega és Alexandria Ocasio-Cortez, hogy felhívják a figyelmet a hamis videók problémájára. Csak Swift hamis videóit mostanra több mint 45 milliószor nézték meg online - írják jelentésükben az újságírók - az öt legnépszerűbb, deepfake-ekre specializálódott pornóoldal így három hónap alatt közel 100 millió megtekintést ért el.
A deepfake pornó problémája:
A deepfake pornó komoly veszélyt jelent az érintettek magánéletére és jó hírnevére, mivel mesterséges intelligencia technológiákat használhat fel arra, hogy megtévesztően valódi, de hamis videókat hozzon létre, amelyeken emberek pornográf jelenetekben szerepelnek, a beleegyezésük nélkül. Ez a technológia lehetővé teszi a hamis narratívák terjesztését és a médiába vetett bizalom aláásását is.
Magyarázat a furcsa frizuraváltásra
A problémát nehéz kezelni, még akkor is, ha a politikusok már próbálkoznak, legalábbis bizonyos mértékig. Március végén például az EU Bizottsága elindította a politikai félretájékoztatás és a deepfake-ek elleni küzdelmet, és megfelelő iránymutatásokat tett közzé. Az Egyesült Királyságban a deepfake-ek előállítói a jövőben büntetőjogi felelősségre vonásra is számíthatnak.
Newman számára azonban ez nem elég: "A törvényhozók világszerte messze le vannak maradva a technológia és az elkövetők mögött, akik azt a nők visszaélésére akarják használni" - mondta, és nagyobb elkötelezettséget követelt. A kutatás során a videóban látható furcsa frizuraváltozást is tisztázni tudta - a jelek szerint a felhasznált mesterséges intelligenciának még mindig "fürtjei vannak, amelyekkel meg kell birkóznia".
Kommentare
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.