A deepfake a mesterséges intelligencia sötét oldala? Mostantól a te arcod is visszaköszönhet egy pornófilmben

Axelle/Bauer-Griffin/Getty Images
Barna Borbála

A Grammy-díjas énekesnőről készült kamu-pornóképeket közel 50 millióan látták az X-en, mielőtt letiltották azokat. És a rossz hírünk az, hogy valójában senki sincs biztonságban a mesterséges intelligencia árnyoldalaitól...

Néhány évvel ezelőtt hackerek több világsztár iCloud-fiókját is feltörték, aztán közzétették róluk azokat az aktfotókat, amiket a felhőjükben találtak. „Jobb lett volna, ha inkább betörnek a házamba” – nyilatkozta akkor az egyik áldozat, Jennifer Lawrence. „Nem csak a szellemi tulajdonomat, a testemet is elvették tőlem” – tette hozzá az Oscar-díjas színésznő, aki az évek során ugyan megbékélt a történtekkel, de túllépni talán sohasem fog ezen. „Bárki láthatja a meztelen testemet a beleegyezésem nélkül, a nap bármelyik szakaszában. (…) A traumám örökké létezni fog” – nyilatkozta Jennifer 2021-ben és a rossz hír az, hogy a jövőben sajnos egyre több sztár fotóival visszaélhetnek, ráadásul ehhez már a telefonjukat sem kell feltörniük a hackereknek.

forrás: Axelle/Bauer-Griffin/Getty Images
Jennifer Lawrence sosem múló traumának nevezte a meztelen fotói kiszivárogtatását.

A mesterséges intelligenciának „hála” gyakorlatilag bárkiről felkerülhetnek a netre olyan felvételek, amelyeken intim, kompromittáló, de akár megalázó helyzetben láthatjuk őket: legutóbb például Taylor Swiftről készültek élethű, de valójában „csak” digitálisan manipulált, hamis, azaz deepfake pornóképek, amelyeket közel 50 millióan láttak a korábban Twitterként ismert X-en. És bár a célpontok elsősorban ismert nők, az igazság az, hogy tulajdonképpen senki sincs biztonságban a deepfake-veszélytől, még mi, hétköznapi emberek sem. Az Amerikai Egyesült Államok elnökének, Joe Bidennek sajtótitkára „riasztónak” nevezte a jelenséget, és a tengerentúlon sokan szorgalmazzák azt, hogy törvénnyel szabályozzák az ehhez hasonló, nem konszenzuson alapuló deepfake-tartalmak büntetését, továbbá az uniós jogszabályok is változni fognak, mert az AI-alkotóknak hamarosan vízjellel kell ellátniuk, amit csinálnak, hogy könnyebben nyomon követhetőek legyenek.

forrás: Neilson Barnard/Getty Images
A Taylor Swiftről készült deepfake pornóképeket közel 50 millióan láttak az X-en.

A hamis fotók és videók ugyanis éppen annyira ronthatják az ember hírnevét, mint az igaziak – ám ami ennél is fontosabb, legalább annyira káros hatással lehetnek az áldozat mentális egészségére, mint azok a (valódi) felvételek, amiket kiszivárogtatnak róluk. Többen is nyíltan beszéltek már arról, hogy a deepfake-támadások traumatizálták őket, szorongást keltettek bennük, megalázva érzeték magukat, és ha ez nem lenne elég, nem elveszítették a biztonságérzetüket. A BBC dokumentumfilmje, a „Deepfake Porn: Could You Be Next?” („Deepfake pornó: Te lehetsz a következő?”) felhívta a figyelmet arra, hogy a deepfake-pornóoldalakat havonta sokmillióan nézik, és egy 2023 jelentés szerint a digitálisan manipulált tartalmak száma 550%-kal (!!!) nőtt, egy 2018-ben végzett kutatás pedig arra is rávilágított már, hogy a neten található deepfake-feltöltések 90%-a nőket ábrázoló, nem konszenzuson alapuló pornó. És bár az pozitívumnak számít, hogy világszerte jogi lépéseket tesznek a jelenség visszaszorítása érdekében, a probléma megoldásához valójában ez önmagában már kevés: hiszen Taylor deepfake-fotói is milliárdokhoz elértek, mire az X végre moderálta, azaz letiltotta őket…