Connect with us

Eveniment

Cum recunoști un videoclip fals, generat de AI. Experți: Sunt tot mai folosite în escrocherii

AI, generat cu AI, deepfake, sora

Publicat

Cum recunoști un videoclip fals: Videoclipurile generate de inteligența artificială (AI) sunt tot mai prezente în tentativele de escrocherie. Experții explică modul în care le putem identifica, într-un context în care milioane de oameni ajung victime ale fraudelor online.

Videoclipurile deepfake au crescut de la o jumătate de milion în 2023 la peste opt milioane în acest an, tentativele de escrocherie au crescut cu 3.000% în doar doi ani, potrivit Express care citează firma de securitate cibernetică DeepStrike.

Experții spun că lumea a intrat într-o nouă eră a conținutului video online, care este periculos. Videoclipurile generate de inteligența artificială se răspândesc rapid pe rețelele de socializare, afectând milioane de utilizatori, potrivit Mediafax.

Un expert în tehnologie a emis un avertisment cu privire la instrumentele video ultra-realiste bazate pe inteligență artificială disponibile pe platforme precum Sora 2, care au fost exploatate de escroci pentru a alimenta un val de escrocherii deepfake online.

Devine tot mai dificil să diferențiezi videoclipurile reale de cele generate de AI

Experții au dezvăluit că devine din ce în ce mai dificil să se facă diferența între ceea ce este real și ceea ce nu este, deoarece oamenii pot detecta acum deepfake-uri de înaltă calitate doar o dată din patru, ceea ce înseamnă că milioane de oameni pot fi înșelați fără să-și dea seama.

Ceea ce a început ca o distracție pe internet, cu deepfake-uri și videoclipuri generate de inteligență artificială, s-a transformat rapid într-o industrie criminală de miliarde de dolari.

Escrocii folosesc inteligența artificială pentru a clona voci, fețe și emoții, furând bani și răspândind știri false, scrie Mediafax.

Apelurile video deepfake în timp real vor deveni și ele mult mai frecvente, mai avertizează specialiștii. Escrocii se pot prezenta drept persoane dragi sau șefi folosind voci și gesturi clonate.

Acest lucru este posibil datorită instrumentelor disponibile pe platforme precum Sora, o aplicație text-video capabilă să creeze videoclipuri realiste în mai puțin de un minut.

Care sunt semnele unui videoclip fals

Experții în tehnologie de la compania de software Outplayed au dezvăluit câteva semne cheie pentru a identifica un videoclip generat de inteligență artificială.

Acestea includ următoarele lucruri:

  • Clipit și ochi: Subiecții clipesc mai puțin sau își mișcă ochii în modele robotice.
  • Mâini și degete: Atenție la degete deformate sau îmbinate – inteligența artificială încă se chinuie cu mâinile.
  • Erori de iluminare: Umbrele cad în direcții ciudate sau fețele par prea luminoase.
  • Apă și reflexii: Lichidul pare „prea perfect” sau nenatural de imobil.
  • Probleme de sincronizare a buzelor: Buzele nu se potrivesc perfect cu cuvintele – în special la sunetele „p” sau „b”.
  • Piele netedă: Fețele inteligenței artificiale par plastice, fără pori sau textură.
  • Fundaluri cu erori: Obiectele deformate sau marginile pâlpâitoare dau de gol.
  • Mișcarea țesăturilor: Hainele se mișcă rigid în vânt.
  • Tranziții de scenă: Sărituri sau „sclipiri” stângace la mijlocul cadrului sugerează editarea.
  • Context ciudat: Persoane care apar în afara personajului sau în locuri ciudate.
  • Presimțire: Dacă pare ciudat – probabil că este.

„Odinioară studiourile de la Hollywood aveau nevoie de săptămâni pentru a produce ceva ce în prezent poate fi realizat rapid, de oricine are un laptop.

Videoclipurile de la cele mai recente instrumente de inteligență artificială, cum ar fi Sora 2, sunt aproape imposibil de descoperit și acest lucru este terifiant în cazurile greșite în care ar putea fi utilizat”, a spus expertul.

Persoanele cad victime ale fraudelor economice și romantice.

„Oamenii au încredere în dovezile video. De aceea intrăm într-o nouă eră periculoasă, cu deepfake-uri în creștere rapidă. Ele ocolesc logica și merg direct la emoție”, a explicat specialistul.

Totodată, Sora a depășit un milion de descărcări, utilizatorii generând clipuri scurte care stârnesc frecvent dezbateri. Escrocii au folosit inclusiv imaginea unor vedete precum Jake Paul, Michael Jackson și Martin Luther King Jr.

Foto: rol ilustrativ, imagine realizată cu ajutorul AI

Urmăriți Alba24.ro și pe Google News

Comentează

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *







ȘTIREA TA - trimite foto/video la Alba24 prin Facebook, WhatsApp, sau prin formularul online.