Inteligența artificială (IA) reprezintă un proiect de succes prin care calculatoarele pot desfășura activități specifice oamenilor și care a avut un impact semnificativ în evoluția tehnologiei. Acest concept este privit de unii ca o modalitate de a-ți face viața mai ușoară, iar de alții ca ceva ce ne va lăsa fără locuri de muncă. În orice caz, există avantaje și dezavantaje, beneficii și pericole atunci când utilizăm IA. În acest articol, mă voi axa pe o problemă gravă a acestei tehnologii și anume, conținutul deepfake.
Una dintre funcțiile inteligenței artificiale este aceea de a crea imagini și videoclipuri false numite „deepfake”, având la bază câteva date reale, precum poza unei persoane. Imită oarecum imaginația umană, dar o transpune în realitate. Această tehnologie se accesează foarte ușor, fie prin aplicații de pe telefonul mobil, fie pe site-uri web.
Așa au apărut mai multe parodii cu persoane publice în mediul online. Câteva exemple îi includ pe Papa Francisc îmbrăcat în Balenciaga și pe politicienii români la o prezentare de modă. Acest stil de divertisment s-a transpus și în teme serioase, cum ar fi o înregistrare foto-video cu președintele ucrainean care declară Armatei să se predea Rusiei.
Au circulat în ultima perioadă diverse avertismente cu privire la aceste imagini false și metode de a le identifica. Ministerul Cercetării, Inovării și Digitalizării a lansat anul acesta o platformă de informare asupra fenomenului, unde utilizatorii au și posibilitatea de a raporta astfel de incidente.
Din păcate, de la comedie până la acuzații penale nu a fost decât un pas. În Coreea de Sud, președintele Yoon Seok-youl a anunțat la sfârșitul lunii august anul acesta, cifre îngrijorătoare legate de victimele materialelor deepfake cu tentă sexuală. Prin inteligența artificială, plecând de la imagini de pe rețele de socializare, s-au realizat materiale pornografice, ulterior răspândite pe Telegram. Un canal a ajuns să aibă chiar și 220.000 de membri. În prima jumătate a anului, au fost înregistrate 297 de cazuri, majoritatea victimelor fiind adolescente. Este îngrijorător faptul că cifrele au crescut treptat comparativ cu 2021, când erau de 2 ori mai puține incidente sau comparativ cu anul trecut, când s-au raportat 180. Victimele includ medici, cadre militare, eleve de liceu și de școală generală.
Aceste date nu scot în evidență doar o problemă națională, ci sunt dovada unei întregi industrii dezvoltate în ultimii ani la nivel internațional. NBC News a descoperit că există platforme online unde se poate plăti pentru conținut sexual deepfake cu celebrități sau cu oameni obișnuiți. Cea mai cunoscută platformă de acest tip are aproximativ 17 milioane de vizitatori lunar și mii de clipuri încărcate: clipurile mai scurte de 1 minut sunt gratis.
Una dintre victime este celebra cântăreață Taylor Swift. In ianuarie anul acesta, au fost postate pe X (fostul Twitter) mai multe imagini deepfake cu tentă sexuală care au strâns 45 de milioane de aprecieri înainte de a fi șterse.
Cel mai îngrijorător aspect este creșterea utilizării inteligenței artificiale cu acest scop. Rezultatele generate de IA sunt fie poze obișnuite, iar persoanelor respective le-au fost înlăturate hainele, fie o față care a fost atribuită altui corp. Imaginile sunt generate mai rapid față de anii anteriori și este se pot obține uneori chiar și de pe un telefon mobil.
Mai mult decât atât, IA este și un instrument pentru escrocherie. Un bărbat din Hong Kong a transferat peste 25 de milioane de dolari din banii companiei multinaționale la care era angajat, crezând că șefii lui din Marea Britanie i-au cerut acest lucru. Înțelegerea a avut loc printr-un apel video, în care escrocii au folosit fețele și vocea Directorului de Finanțe și al altor colegi. Victima i-a recunoscut imediat și era convinsă că totul este real. Cazul este în continuare anchetat.
Tot ce putem face pentru a evita să devenim victime este să folosim rețelele de socializare cu precauție și, cel mai important, să ne informăm cu privire la diferențele dintre imaginile reale și cele deepfake. Câteva astfel de diferențe includ clădirile curbe, degete în plus sau distorsionate, dinți lipsă în vorbire, buze care nu corespund cuvintelor, clipit anormal, detalii mult prea netede pentru a fi reale. Există și o platformă, DeepFake-o-meter, care vă poate indica probabilitatea ca un material să fi fost generat de către inteligența artificială.
În contextul acestor precedente, cu siguranță ne trece prin minte posibilitatea ca într-o zi să fim acuzați de ceva ce nu am făcut și să existe dovezi generate de IA. Cu toate că nu prea există incidente de acest tip, rămâne de văzut cum vor evolua lucrurile în viitor (poate cel apropiat). Chiar dacă mulți utilizează tehnologia în scopuri greșite, nu înseamnă că este rău să ne bazăm pe ea în anumite situații. Păstrând un echilibru între dependență totală și circumspecție completă, putem beneficia cel mai mult de pe urma inteligenței artificiale.
Imagine principală:
Generată de inteligența artificială.
Bibliografie:
Exemple de imagini : https://www.tiktok.com/t/ZGewNNhtc/
Informații despre escrocherie : https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html
Despre noua industrie pornografică cu deepfake: https://www.yahoo.com/tech/google-visa-mastercard-fueling-deepfake-175615101.html
Imagini generate de IA și cum să le identificăm : https://www.theguardian.com/us-news/article/2024/jun/07/how-to-spot-a-deepfake
Despre scandalul din Coreea de Sud: https://www.theguardian.com/world/article/2024/aug/28/south-korea-deepfake-porn-law-crackdown; https://www.reuters.com/world/asia-pacific/why-south-korea-is-high-alert-over-deepfake-sex-crimes-2024-08-30
Portalul creat de Ministerul Cercetării, Inovării și Digitalizării: https://www.mcid.gov.ro/ministrul-bogdan-ivan-anunta-lansarea-pe-site-ul-mcid-a-platformei-nofake-pentru-raportarea-continutului-deepfake-19222/