Posturi Populare

Alegerea Editorului - 2024

Nu credeți pe nimeni: ce amenință rețeaua neurală, a face porno

Dmitry Kurkin

Fake video pornoîn care steaua filmului "Wonder Woman", Gal Gadot, despre care se presupune că face sex cu fratele său vitreg, care a apărut săptămâna aceasta pe Web, sa dovedit a fi nu doar un fals, ci un fals generat de inteligența artificială.

Autorul videoclipului, un utilizator anonim al lui Reddit cu porecla de profundă, într-un interviu acordat lui Vice, a confirmat că a folosit rețeaua neurală pentru a "face fotografii" lui Gadot la corpul actriței porno. Falsul, în general, este remarcabil, iar adâncurile nu intenționau să facă niciun fel de bani - în opinia lui, el dorea doar să verifice cât de ușor ar fi să-l folosească folosind AI. Și el are veste proastă pentru noi: era foarte ușor să faci porno falsă acasă.

Problema, în general, nu este în pornofeaks în sine: cererea de imagini și clipuri video, în care actori și actrițe de genul celebrităților au făcut, sunt și vor fi cu fetiștii și fanii senzațiilor. În ceea ce privește asemănarea externă cu vedetele din industria porno, se fac cariere întregi - acest fenomen chiar a dat naștere unui titlu remarcabil al presei galbene: "Piticul Gordon Ramsay este găsit mort într-o gaură bursucă".

Dar dacă înainte de producție este nevoie de timp, de resurse și de o anumită abilitate, atunci o rețea neuronală, pregătită pentru a suda se confruntă cu o imagine, simplifică foarte mult sarcina. Roboții nu sunt o persoană, iar roboții devin mai inteligenți din când în când, ceea ce înseamnă că falsurile vor arăta din ce în ce mai fiabile. Utilizatorul profund a clarificat că și-a strâns software-ul AI de la elementele improvizate găsite în librăriile open source și a făcut fotografii și clipuri video în canale publice și găzduire, cum ar fi YouTube. Pur și simplu, toate instrumentele pentru generarea de pornofeikov se află sub nas, nu numai cu el, ci în rândul a milioane de oameni din întreaga lume.

Și asta, strict vorbind, nici măcar noutăți. În 2003, experții de la Universitatea din Oregon Health and Science au avertizat că fraudele audio sunt "ușor de făcut și dificil de determinat". Până în 2017, predicția sa realizat și au existat înregistrări false de voce generate de rețelele neuronale care sunt foarte greu de distins de cele reale. Urmărind audio, videoclipul a fost tras în sus. Dezvoltarea personalului de la Universitatea din Washington sincronizează expresiile faciale ale feței unei persoane cu discursul său: în clipul video cu Barack Obama stabilit, de exemplu, numai audio este prezent, imaginea este generată de program. Conectați-vă unul la celălalt - și acum există videoclipuri video false, în care, de exemplu, un bine-cunoscut politician liberal "mărturisește" simpatiile sale pentru Hitler.

Este nevoie de destulă imaginație pentru a ne imagina cum pot duce la abuzuri, cum ar fi inteligența artificială - bătăile de la Microsoft, pe care trolurile de pe Twitter le-au transformat în rasiste în mai puțin de o zi, vor părea o glumă. Și, bineînțeles, tehnologia porno nu este în primul rând amenințată de Gal Gadot, Taylor Swift sau Jennifer Lawrence. Sunt suficient de asigurați să angajeze o armată de specialiști IT care recunosc un fals și o flotă de avocați care vor da în judecată pe oricine încearcă să folosească aceste falsuri pentru câștig personal.

Nu, muritorii simpli vor deveni victime ale noilor algoritmi inofensivi. Falsurile digitale pot fi folosite pentru pornografie, hărțuire în rețea, hărțuire în rețea, șantaj și manipulare de către persoane care sunt ușor sugestive și nu urmăresc în special știrile din domeniul tehnologiilor avansate ("fiica ta a fost înregistrată video, transferă urgent banii, altfel totul îl va vedea"). Și nu vorbim neapărat despre pornografie: pot fi lansate și falsuri în Rețeaua de propagandă politică și incitare la ură.

"Dar asta e monstruos!" Da, este monstruos, iar coderul de adâncime nu este de vină pentru asta. Pe măsură ce hackerii uneori intră în sistemele bancare, nu pentru a fura bani, ci pentru a îndrepta departamentul de apărare cibernetică în lacune de securitate, așa că a fost inventat de un programator anonim AI care ne pune în fața unui fapt: era contrafacerilor digitale nu este o poveste de groază anti-utopică "Black Mirror" și realitatea venită. Ea nu a fost încă înțeleasă de etica modernă (poate pornofilii să fie considerați o invazie a vieții private a altor persoane?), Nici prin legea în vigoare. Dar în ea trebuie să trăim cumva în următorii ani. Deci, este necesar să se dezvolte un antidot împotriva acestor umpluturi.

Curatorii dictionarului Collins au numit termenul "stiri fals" expresia din 2017, subliniind astfel ca utilizatorul mediu este dependent de clickbate si repostand titlurile senzative fara a pierde timp verificand autenticitatea informatiilor. Între timp, știrile false pot influența rezultatele alegerilor și ale referendumurilor. Și aceasta este și o parte a noii realități în care există deja și în care trebuie să învățăm să fim mai puțin frivoli.

Rețelele sociale au făcut deja pe Internet o locuință cu pereți de sticlă, în care milioane de oameni vă pot urmări viața în fiecare zi - chiar și atunci când nu doriți. Acum este evident că nu există nici o ușă în această casă: oricine poate încerca să vă invadeze spațiul personal, folosind AI pentru a vă înfunda fața pe pornorol sau pe filmul "Stăpânul Inelelor". Confidențialitatea este moartă, dar nu numai că Big Brother este vinovat de acest lucru sub formă de servicii speciale și corporații globale, dar și pe noi înșine.

Lumea falsurilor digitale vine, dar acest lucru nu este un motiv pentru panică, paranoia, refuzul de a folosi internetul sau cerințele de interzicere a rețelelor neuronale. Acesta este motivul pentru care trebuie să ne gândim la igiena rețelei și noua etică, care va stabili o dată pentru totdeauna că folosirea imaginii altcuiva pentru a crea un fals digital este vicios și ilegal. Vremurile când oamenii au crezut necondiționat tot ce spun la televizor (chiar dacă spun că "Lenin a fost o ciupercă") se estompează. În același mod, ne-am obișnuit treptat să nu credem tot ce este scris pe Internet.

Coperta:Înregistrări de război

Vizionați videoclipul: NU CREDEȚI PE NIMENI! (Mai 2024).

Lasă Un Comentariu