Connect with us

Eveniment

Atenționare a Poliției Române: pericole de înșelăciune prin clipuri false. Cum pot fi recunoscute imaginile create de AI

Modificare la legea achizițiilor publice

Publicat

Poliția Română atrage atenția că videoclipurile false create cu ajutorul inteligenței artificiale – ”deepfake” și imaginile generate artificial au devenit instrumentele preferate ale autorilor infracțiunilor din domeniul criminalității informatice.

Acestea sunt promovate masiv pe rețelele de socializare, iar cetățenii de bună-credință sunt induși în eroare de aceste ”capcane”, crezând că văd celebrități, experți financiari sau persoane aflate la nevoie.

”Inteligența artificială (AI) a avansat în ultimii ani, permițând crearea de videoclipuri și imagini extrem de realiste. În prezent, aceste tehnologii sunt folosite în principal pentru divertisment, însă un aspect negativ îl reprezintă faptul că acestea sunt utilizate ca un instrument de inducere în eroare a oamenilor, cu scopul de a obține câștiguri financiare nelegale”, atenționează Poliția Română, potrivit Agerpres.

Cele mai frecvente moduri de operare întâlnite în anul 2025

  • Trading scam și investment fraud – videoclipuri deepfake cu oameni de afaceri de notorietate sau cu politicieni care ”recomandă” platforme de investiții crypto, forex sau ”inteligență artificială miraculoasă” care promit multiplicarea banilor peste noapte. Victimele sunt direcționate către site-uri false, unde depun bani spre a fi investiți, dar care, în realitate, ajung la autori prin diferite scheme de transfer de monede.
  • Scam-uri caritabile – deepfake-uri cu copii bolnavi, victime ale dezastrelor sau celebrități care cer donații urgente. Oamenii donează prin intermediul unor link-uri false, iar sumele de bani ajung direct la infractori.
  • Romance scam îmbunătățit cu ajutorul AI – utilizarea de către infractori a unor profiluri false cu poze și videoclipuri generate de AI cu persoane atractive, prin intermediul cărora dezvoltă relații emoționale, apoi cer bani pentru ”urgențe medicale” sau ”bilete de avion”.
  • CEO/CFO fraud (Business E-mail Compromise evoluat) – utilizarea de videocall-uri deepfake în care ”șeful” cere transferuri urgente de bani.
  • Impersonare celebrități pentru produse false – deepfake-uri cu diverse personalități care ”oferă gratuit” produse.

”Potrivit statisticilor din anul 2025, tentativele de fraudă cu deepfake au crescut foarte mult pe fondul avansării tehnologiei bazate pe inteligență artificială, iar pierderile financiare globale se ridică la zeci de miliarde de dolari anual”, arată sursa citată.

Imagini cu persoane complet fictive

Un alt fenomen întâlnit în practică este crearea de imagini cu persoane complet fictive, generate de tool-uri – imagini care sunt perfecte și descriu persoane frumoase, zâmbitoare, care par 100% reale, dar care nu există în realitate.

Aceste imagini sunt folosite masiv în moduri de operare precum:

  • ”romance scams” și ”catfishing”
  • profiluri false de influenceri care promovează produse sau diverse tipuri de înșelătorii ori investiții
  • crearea de ”martori” în povești false de investiții (”Uite câți oameni s-au îmbogățit!”)
  • șantaj și hărțuire (poze false cu persoane în situații compromițătoare).

Utilizarea inteligenței artificiale în scopuri ilegale poate duce la diverse consecințe, atât din punct de vedere financiar, cât și din punct de vedere al manipulării:

  • pierderi financiare directe
  • traume emoționale (oameni care donează ultimii bani pentru ”copii bolnavi” inexistenți sau se îndrăgostesc de persoane false)
  • erodarea încrederii în media și instituții – ”Dacă nimic nu mai e real, atunci nimic nu mai contează”
  • manipulare politică și electorală (deepfake-uri cu candidați care spun lucruri pe care nu le-au spus niciodată)
  • distrugerea reputației personale (revenge porn deepfake, folosit în special împotriva femeilor)
  • amenințări la securitatea națională (deepfake-uri cu lideri politici care declară război etc.).

Cum poate fi recunoscut un videoclip făcut cu AI

”În acest sens, recomandăm prudență cetățenilor și oferim mai multe măsuri de contracarare și protecție privind recunoașterea unui videoclip sau a unei fotografii făcute cu inteligența artificial”, precizează IGPR.

Pentru videoclipuri deepfake, recomandările sunt:

  • verificarea clipitului ochilor – în multe deepfake-uri vechi, clipitul era anormal, însă în anul 2025 acest aspect a fost îmbunătățit considerabil, dar încă apar inconsistențe
  • mișcările buzelor și sincronizarea cu sunetul – adesea nu sunt perfecte, mai ales în limbi non-engleză
  • iluminarea și umbrele – verificarea dacă lumina de pe față se potrivește cu fundalul
  • reflexii în ochi și dinți – adesea lipsesc sau sunt nenaturale
  • mâinile și degetele – încă o slăbiciune majoră a multor modele AI (aspect anormal al degetelor, prea multe sau prea puține degete)
  • fundal inconsistent sau obiecte ”topite”
  • ochi asimetrici sau pupile anormale; păr anormal sau îmbrăcăminte care nu are sens fizic.

Măsuri de precauție

IGPR recomandă mai multe măsuri de protecție și prevenire pentru cetățeni – regula care se aplică pentru toate metodele de protecție împotriva oricărei tentative de înșelăciune: dacă pare prea frumos ca să fie adevărat (îmbogățire rapidă, cadouri de la celebrități, iubire perfectă în două săptămâni etc.), este fals!

”Nu da click pe link-uri din reclame sau mesaje nesolicitate. Nu transfera bani niciodată cuiva pe care l-ai cunoscut doar online. Verifică întotdeauna sursa oficială: dacă un om de afaceri, o persoană de notorietate sau orice altă personalitate promovează ceva, caută pe contul acesteia oficial de pe rețelele de socializare, verificat, și vezi dacă a postat acolo.

Activați autentificarea în doi pași (2FA) în aplicațiile și conturile importante, folosind o aplicație de tip ‘Authenticator’ (nu doar SMS). Este necesară raportarea conținutului suspect pe platformele pe care apare. Se pot folosi extensii de browser care detectează automat deepfake-urile. În cazurile în care ați fost victima unei înșelăciuni în mediul online, sesizați cât mai rapid organele judiciare, întrucât o reacție promptă poate sprijini în mod semnificativ desfășurarea investigațiilor”, transmite Poliția.

Dezinformare privind adevăruri științifice fundamentale

Pe lângă scam-urile financiare și caritabile deja cunoscute, infractorii și grupările de dezinformare folosesc videoclipuri AI hiper-realiste pentru a induce în eroare populația în privința adevărurilor științifice fundamentale:

  • Videoclipuri în care ”astronauți NASA” mărturisesc în lacrimi că ”aselenizarea a fost filmată în studio” și că ”Pământul este plat”
  • ”Oameni de știință renumiți” (de fapt deepfake-uri perfecte) declară că ”vaccinurile conțin cipuri 5G” sau că ”încălzirea globală este o minciună”
  • ”Medici celebri” recomandă tratamente minune împotriva cancerului cu bicarbonat și lămâie
  • ”Martori oculari” din Ucraina sau Orientul Mijlociu povestesc atrocități inventate, cu fețe și voci perfect copiate

”Acestea nu mai sunt doar postări izolate pe grupuri conspirative. În anul 2025, astfel de clipuri ajung în trend pe rețelele de socializare, sunt distribuite de conturi cu sute de mii de followeri și sunt preluate chiar și de televiziuni locale care nu verifică sursele”, se mai arată în comunicat.

Urmăriți Alba24.ro și pe Google News

Comentează

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *







ȘTIREA TA - trimite foto/video la Alba24 prin Facebook, WhatsApp, sau prin formularul online.