Pericol online: Deepfake-urile AI fură bani și înșală românii! Cum să nu cazi în capcanele fraudelor financiare și romance scam

IGPR atrage atenția: Deepfake-urile AI, instrumente tot mai folosite în fraude și manipulare

Poliția Română avertizează asupra pericolului crescând reprezentat de videoclipurile și imaginile false create cu ajutorul inteligenței artificiale – cunoscute sub denumirea de deepfake-uri. Acestea sunt folosite pe scară largă de infractori pentru a induce în eroare cetățenii și a obține câștiguri financiare nelegale, dar și pentru manipulare emoțională, politică sau de opinie.

„Inteligența artificială a evoluat rapid, permițând crearea de materiale vizuale extrem de realiste. Deși aceste tehnologii sunt folosite în principal pentru divertisment, ele sunt exploatate tot mai des pentru înșelăciuni și fraude financiare”, precizează un comunicat al Inspectoratului General al Poliției Române (IGPR).

Cele mai frecvente tipuri de fraudă cu deepfake în 2025:

  • Trading scam și investment fraud
  • Infractorii folosesc videoclipuri deepfake cu oameni de afaceri sau politicieni care „recomandă” platforme de investiții false – crypto, forex sau AI care „multiplică banii peste noapte”. Victimele depun bani pe site-uri fictive, care ajung direct la infractori.
  • Scam-uri caritabile
  • Deepfake-uri cu copii bolnavi, victime ale dezastrelor sau celebrități care cer donații urgente. Banii donați ajung la infractori, prin link-uri false.
  • Romance scam îmbunătățit cu AI
  • Profiluri false cu imagini și videoclipuri generate de AI sunt folosite pentru relații emoționale online. Ulterior, victima este șantajată să trimită bani pentru „urgențe medicale” sau „bilete de avion”.
  • Frauda CEO/CFO (Business E-mail Compromise evoluat)
  • Videocall-uri deepfake în care „șeful” solicită transferuri urgente de bani.
  • Impersonarea celebrităților pentru produse false
  • Personalități false apar în videoclipuri care „oferă gratuit” produse, determinând oamenii să dea date financiare sau să cumpere produse inexistente.
  • Potrivit IGPR, fraudele cu deepfake au crescut semnificativ în 2025, cu pierderi financiare globale estimate la zeci de miliarde de dolari anual.

Imagini și persoane fictive generate de AI

Un alt fenomen periculos este utilizarea de imagini complet fictive, dar extrem de realiste, pentru:

  • Romance scams și catfishing;
  • Profiluri false de influenceri care promovează produse sau investiții false;
  • Crearea de „martori” în povești de înșelătorie;
  • Șantaj sau hărțuire online.

Consecințele includ pierderi financiare, traume emoționale, erodarea încrederii în media și instituții, manipulare politică, distrugerea reputației personale sau amenințări la securitatea națională, potrivit agerpres.

Sfaturi de protecție împotriva deepfake-urilor

Recunoașterea unui videoclip sau a unei imagini AI:

  • Clipitul ochilor și mișcarea buzelor pot fi imperfecte;
  • Iluminarea și umbrele nu se potrivesc întotdeauna cu fundalul;
  • Reflexii nenaturale în ochi și dinți;
  • Degete anormale sau fundal „topit”;
  • Pupile asimetrice sau păr/îmbrăcăminte nerealistă.

Măsuri generale recomandate de IGPR:

  • Dacă pare prea frumos ca să fie adevărat – este fals;
  • Nu da click pe link-uri nesolicitate și nu transfera bani online către necunoscuți;
  • Verifică conturile oficiale ale persoanelor publice sau companiilor;
  • Activează autentificarea în doi pași (2FA) pe aplicații și conturi importante;
  • Raportează conținutul suspect platformelor online;
  • Folosește extensii de browser pentru detectarea deepfake-urilor;
  • Sesizează imediat organele judiciare în caz de fraudă.

IGPR subliniază că prudența și verificarea atentă a informațiilor sunt esențiale pentru a evita să devenim victime ale deepfake-urilor și ale fraudelor online.

Comentarii Facebook