Ce este un deepfake?

Ce este un deepfake?

Inteligența artificială generativă a parcurs un drum fulminant, ajungând să creeze imagini și videoclipuri aproape imposibil de deosebit de realitate. Deși această evoluție deschide orizonturi fascinante în divertisment, educație sau industrie, reversul medaliei s-a transformat rapid într-o provocare globală de proporții: utilizarea acestor tehnologii pentru a orchestra fraude, manipulări și înșelăciuni masive.

Anul 2025 a marcat o intensificare alarmantă, deepfake-urile devenind instrumentul preferat al grupărilor infracționale și al campaniilor de dezinformare, cu efecte devastatoare asupra indivizilor, companiilor și chiar a securității naționale.

Chiar și Poliția Română a emis un avertisment clar în acest sens, subliniind gravitatea situației. Fraudele online, odinioară limitate la texte înșelătoare și apeluri telefonice, au căpătat o nouă dimensiune odată cu accesibilitatea instrumentelor de generare video și foto. Acum, oamenii nu mai sunt atrași în capcane doar prin cuvinte, ci prin clipuri video convingătoare, în care „văd cu ochii lor” persoane cunoscute – de la oameni de afaceri respectați la politicieni sau influenceri – care recomandă platforme de investiții fanteziste, solicită donații urgente sau cer sume de bani sub pretexte dramatice.

Una dintre cele mai insidioase forme este legată de escrocheriile financiare și investițiile false.

Așa-numitele „trading scam-uri” s-au răspândit vertiginos, prezentând deepfake-uri cu personalități publice care „garantează” profituri rapide din platforme de criptomonede sau sisteme automate de tranzacționare. Victimele sunt direcționate către site-uri false, unde, după ce depun bani, sumele dispar instantaneu în portofelele digitale ale infractorilor.

În 2025, această metodă a explodat, clipurile respective circulând liber pe platforme precum Facebook, Instagram, TikTok și YouTube, amplificate cu abilitate de algoritmii rețelelor sociale.

Dacă înainte un presupus investitor fals apela telefonic sau trimitea emailuri, acum aplicarea unei fețe și a unei voci credibile într-un videoclip a crescut dramatic rata de succes a acestor înșelătorii. Pe lângă mirajul câștigurilor facile, infractorii exploatează și compasiunea umană.

O altă zonă vulnerabilă este manipularea emoțională prin deepfake-uri ce prezintă copii bolnavi sau victime ale unor dezastre naturale.

Aceste imagini cutremurătoare sunt însoțite de link-uri false către campanii de „fundraising”, iar oamenii donează cu bună credință, fără să realizeze că întreaga poveste este inventată de la zero.

Sumele donate ajung direct în conturile infractorilor, lăsând victimele cu un sentiment profund de vină și rușine. Un alt domeniu transformat radical este cel al escrocheriilor romantice, acum modernizate prin inteligență artificială. Profilurile false au atins un nou nivel de sofisticare.

În locul fotografiilor furate, infractorii folosesc acum imagini generate de AI, care prezintă persoane complet artificiale, dar perfect create, cu trăsături armonioase și expresii realiste. Aceștia întrețin relații online pe termen lung cu victimele, folosind inclusiv videoclipuri generate de AI.

Odată ce creează un atașament emoțional puternic, trec la solicitări de bani, invocând „operații medicale urgente”, „bilete de avion” sau alte povești dramatice, pentru a stoarce sume considerabile. La nivel corporativ, frauda a căpătat, de asemenea, o formă extrem de periculoasă.

Este vorba despre o evoluție a metodei Business E-mail Compromise, unde infractorii utilizează deepfake-uri în timp real, în timpul unui apel video. Angajații se trezesc brusc în fața unui „director” care cere urgent un transfer de fonduri. În realitate, clipul este generat și sincronizat pe loc cu o voce falsă, iar sumele transferate pot ajunge la milioane de euro. Nu în ultimul rând, rețelele sociale au fost invadate de reclame cu personalități inventate sau cu celebrități care „oferă gratuit” produse.

Aceste clipuri sunt atât de convingătoare încât mii de utilizatori cad zilnic în capcane, crezând în autenticitatea unor oferte pur fictive. Creșterea fraudelor este însă doar o parte a problemei, avertizează experții. Deepfake-urile au început să erodeze structurile sociale fundamentale, alimentând neîncrederea generalizată, radicalizarea și manipularea politică.

Efectele observate în 2025 sunt cu adevărat alarmante: pe lângă pierderile financiare masive, de ordinul zecilor de miliarde de dolari la nivel global, apar traume emoționale profunde, resimțite mai ales în cazul escrocheriilor romantice. Se observă o erodare accelerată a încrederii în mass-media și în instituții, mulți ajungând să creadă că „nimic nu mai e real, totul poate fi fals”.

Fenomenul contribuie la manipularea electorală prin clipuri fabricate cu politicieni, la atacuri la reputație prin deepfake-uri de tip „revenge porn”, îndreptate în special împotriva femeilor, și chiar la riscuri de securitate națională, prin materiale video trucate în care lideri politici ar „anunța atacuri” sau ar face declarații incendiare.

Dincolo de fraudele financiare, deepfake-urile sunt folosite pentru a nega realități științifice demonstrate, a promova conspirații elaborate sau a genera panică în masă – de la presupuse confesiuni ale unor „astronauți” până la discursuri false ale unor medici, menite să inducă în eroare publicul.

Deși tehnologia continuă să avanseze într-un ritm amețitor, există încă indicii care ne pot ajuta să detectăm un clip generat artificial. Observarea atentă a detaliilor, alături de verificarea riguroasă a sursei informației, rămân pași esențiali. Cu toate acestea, uneori este nevoie de instrumente automate, capabile să identifice semnale invizibile ochiului uman.

Printre semnele la care ar trebui să fim atenți se numără clipitul neregulat sau lipsa totală a clipitului, sincronizarea imperfectă între mișcarea buzelor și voce, umbre sau o iluminare ce nu corespund mediului, reflexii anormale în ochi sau pe dinți, precum și deformări subtile la nivelul mâinilor, degetelor sau urechilor. De asemenea, pot apărea obiecte sau elemente din fundal care par topite sau deformate, pupile asimetrice sau păr cu margini ciudate, care nu respectă fizica reală. Artefacte vizibile la marginea feței pot fi, de asemenea, un indicator. O metodă utilă, mai ales pentru imagini, este folosirea căutării inverse de imagini pentru verificări suplimentare ale provenienței.

Este important de știut că infractorii utilizează adesea persoane complet fictive, dificil de verificat, generate cu instrumente AI specializate, pentru a crea profiluri false, a susține campanii de scam, a genera „mărturii” inventate sau chiar a iniția tentative de șantaj.

Pentru a ne proteja eficient în acest peisaj digital tot mai complex, este crucial să respectăm câteva măsuri de precauție. Evitați orice ofertă care pare prea bună pentru a fi adevărată și nu accesați niciodată link-uri trimise prin reclame suspecte sau mesaje nesolicitate.

Nu transferați bani persoanelor pe care le cunoașteți exclusiv online și verificați întotdeauna conturile oficiale ale celor care promovează investiții sau solicită donații. Activați autentificarea în doi pași pentru toate conturile importante, preferabil prin aplicație dedicată, nu prin SMS. Raportați imediat conținutul suspect și, dacă este posibil, folosiți extensii de browser care detectează deepfake-uri. În cazul în care sunteți victima unei fraude, anunțați autoritățile fără întârziere – o reacție rapidă poate fi crucială pentru investigații.

Trebuie reținut că au apărut inclusiv deepfake-uri cu persoane care se prezintă drept polițiști sau consultanți financiari. Este esențial de știut că Poliția Română nu contactează cetățenii prin video-call, nu recomandă investiții și nu colaborează cu bănci decât în cadru instituțional oficial.

Inteligența artificială generativă a redefinit pentru totdeauna peisajul digital, iar anul 2025 a confirmat că deepfake-urile au devenit una dintre cele mai serioase amenințări ale erei moderne.

Capacitatea lor de a manipula percepția colectivă, de a destabiliza încrederea și de a provoca pierderi financiare și emoționale uriașe cere o vigilență permanentă. Într-o lume în care aproape orice imagine sau sunet poate fi fabricat, educația digitală și verificarea constantă a surselor de informație sunt nu doar recomandări, ci imperative pentru a ne menține siguranța și integritatea.

Surse: https://www.socialmediasafety.org/advocacy/deepfake-technology/; https://www.teneo.com/insights/articles/deepfakes-in-2024-are-suddenly-deeply-real-an-executive-briefing-on-the-threat-and-trends/.

Recomanda
Recomanda

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*


Precizare:
Ziarul Cotidianul își propune să găzduiască informații și puncte de vedere diverse și contradictorii. Publicația roagă cititorii să evite atacurile la persoană, vulgaritățile, atitudinile extremiste, antisemite, rasiste sau discriminatorii. De asemenea, invită cititorii să comenteze subiectele articolelor sau să se exprime doar pe seama aspectelor importante din viața lor si a societății, folosind un limbaj îngrijit, într-un spațiu de o dimensiune rezonabilă. Am fi de-a dreptul bucuroși ca unii comentatori să semneze cu numele lor sau cu pseudonime decente. Pentru acuratețea spațiului afectat, redacția va modera comentariile, renunțînd la cele pe care le consideră nepotrivite.