Connect with us

Actualitate

Creștere masivă a fraudelor digitale avansate, pe fondul folosirii masive a inteligenței artificiale. Raport

Modificare la legea achizițiilor publice

Publicat

Numărul fraudelor digitale avansate a crescut cu 180% în acest an, comparativ cu perioada similară din 2024 . Contextul este dat de folosirea masivă a inteligenței artificiale pentru identități false, deepfake-uri și sisteme autonome capabile să execute atacuri complexe fără intervenție umană. Datele sunt evidențiate într-un raport de specialitate, publicat recent.

Conform datelor centralizate de Sumsub, citate de Directoratul Național de Securitate Cibernetică (DNSC), ponderea fraudelor sofisticate a crescut de la 10% la 28% într-un singur an, ceea ce a semnalat o migrare de la atacuri simple la operațiuni ”de precizie”.

Atacurile de tip phishing rămân cele mai frecvente metode (45%), dar tot mai multe fraude provin din breșe la furnizori (36%), iar identitățile sintetice sunt tot mai folosite.

Fraude mai greu de detectat

”Lupta globală împotriva fraudei digitale a devenit mult mai complicată, criminalii cibernetici trecând de la atacuri oportuniste de mare volum la operațiuni sofisticate, conduse de inteligență artificială; acestea nu doar că sunt mai greu de detectat, dar pot provoca și daune substanțial mai mari.

O analiză a datelor provenite din peste patru milioane de tentative de fraudă, precum și sondaje realizate pe 300 de profesioniști în fraudă și risc și alți 1.200 de utilizatori finali, (…) a evidențiat ceea ce compania de verificare a identității a descris drept o ‘schimbare notabilă către sofisticare’ în ultimul an.

Fraudele care implică tehnici avansate de înșelăciune, inginerie socială, identități generate de AI și manipularea telemetriei au crescut cu 180% față de anul anterior, iar ponderea acestor incidente în volumul total al fraudelor a crescut de la 10% în 2024 la 28% în 2025”, susțin specialiștii de la Samsub.

Moduri de operare

Aceștia au descoperit, totodată, că atacatorii folosesc, din ce în ce mai mult, sisteme autonome capabile să execute fraude în mai mulți pași cu intervenție umană minimă. Astfel, documentele generate de AI au reprezentat doar 2% din totalul ID-urilor și înregistrărilor false utilizate în frauda digitală, anul trecut, însă această pondere aparent mică, alimentată de instrumente precum ChatGPT, Grok și Gemini, reprezintă o traiectorie ascendentă îngrijorătoare.

Peste Ocean, în SUA, a fost înregistrată o scădere de 15%, de la un an la altul, a ratei generale a fraudelor. Cu toate acestea, 21% dintre incidente au implicat utilizarea de identități sintetice sau persoane generate de AI, urmată de abuzul de chargeback (16%) și preluarea conturilor (19%).

Una dintre temele dominante ale raportului Sumsub este modul în care instrumentele AI au industrializat frauda digitală în 2025. Compania a descoperit că escrocii folosesc modele generative de AI pentru a crea documente de fraudă identitară aproape perfecte – pașapoarte, permise de conducere, facturi de utilități – cu holograme precise, fonturi realiste și texturi. ”În multe cazuri, escrocii au folosit sisteme text-to-video pentru a crea deepfake-uri extrem de convingătoare menite să ocolească verificările de liveness”, se menționează în raport.

Escrocherii de mare volum

De asemenea, în mod îngrijorător, în 2025, au început să apară și agenți AI capabili să execute întregul lanț al fraudei în mod autonom.

”Nu sunt boți tradiționali. Ei combină inteligența artificială generativă, cadre de automatizare și învățare prin întărire pentru a crea identități sintetice, a interacționa în timp real cu sistemele de verificare și a-și ajusta comportamentul în funcție de rezultat. Sunt încă în stadiu incipient astăzi, dar traiectoria actuală indică faptul că ar putea deveni mainstream în următoarele 18 luni, mai ales în rețelele de fraudă organizată. Asta înseamnă evoluție. Am trecut de la escrocherii de mare volum și cu calificare scăzută, pe care apărările le pot filtra, la atacuri proiectate cu precizie, concepute special pentru a ocoli sistemele avansate de verificare”, explică șeful departamentului AI al Sumsub, Pavel Goldman-Kalaydin.

Raportul Sumsub a evidențiat și o serie de măsuri pe care organizațiile vor trebui să le ia pentru a se proteja împotriva valului de fraudă activată de AI. Lista include necesitatea unor mecanisme de verificare a identității pe mai multe straturi, instrumente de detectare a fraudei bazate pe AI, analize comportamentale și partajarea informațiilor de intelligence despre amenințări.

Urmăriți Alba24.ro și pe Google News

Comentează

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *







ȘTIREA TA - trimite foto/video la Alba24 prin Facebook, WhatsApp, sau prin formularul online.