Local

Ce trebuie să știe utilizatorii vrânceni de platforme oline: Fraudele bazate pe clipuri generate de Inteligența Artificială sunt tot mai des întâlnite

Ionel Sclavone
7 dec 2025 867 vizualizări
Deepfake, fake news, conținut inadecvat. Imagine cu caracter ilustrativ. Foto: Profimedia Images.Credit foto:digi24.ro
Deepfake, fake news, conținut inadecvat. Imagine cu caracter ilustrativ. Foto: Profimedia Images.Credit foto:digi24.ro

Clipurile video și fotografiile generate cu ajutorul Inteligenței Artificiale suntn din ce în ce mai sofisticate și mai realiste, astfel că infractorii cibernetici le folosesc pentru tot felul de înșelăciuni. Autoritățile identifică tot mai multe asemenea tipuri de fraude și actualizează perioadic recomandările, pentru utilizatorii online, pe baza cazurilor pe care le anchetează.

Inteligența Artificială a devenit un instrument de care se folosesc tot mai mulți infractori cibernetici care acționează în mediul online pentru a-și păcăli victimele și pentru a le fura banii ori datele personale. Clipurile generate cu astfel de instrumente au devenit tot mai sofisticate și mai realiste, fiind din ce în ce mai greu de depistat.

Tehnologia bazată de Inteligența Artificială este folosită în principal pentru divertisment, însă au acces la ea și infractorii care o folosesc cu scopul de a obține câștiguri financiare nelegale. Falsurile sunt utilizate pentru fraude financiare, manipulare și inducerea în eroare a publicului, fapt ce are un impact important asupra siguranței cetățenilor. Capcanele apar la tot pasul, astfel că autoritățile recomandă verificarea atentă a conținutului digital.

Deepfake-urile (videoclipuri false create cu AI) și imaginile generate artificial preiau chipurile unor vedete, experți financiari sau persoane vulnerabile. Iar cei din spatele lor solicită bani pentru cele mai ciudate motive, fie sub formă de împrumut, pentru investiții profitabile sau donații în scopuri caritabile.

Tipuri de fraude lansate cu ajutorul tehnologiei bazată pe Inteligența Artificială

În ultima perioadă, autoritățile au identificat mai multe tipuri de fraude care au la bază intrumente bazate pe Inteligența Artificială. Acestea au fost clasificate, în funcție de tipul și de scopul urmărit du infractorii cibernetici în mai multe categorii.

Avem, în primul rând, trading scam și investment fraud. Este vorba despre clipuri deepfake în care apar oameni de afaceri sau persoane cunoscute (politicieni, experți financiari etc.) ce recomandă investiții în platforme crypto, forex sau pentru dezvoltarea unor tehnologii bazate pe invenții miraculoase. Aceștia promit câștiguri uriașe într-un timp foarte scurt, iar victimele sunt direcționate către site-uri false unde depun bani spre a fi investiți. În realitate sumele ajung la infractori prin diferite scheme de transfer de monede.

Scam-urile caritabile sunt o altă formă de fraudă generată cu ajutorul Inteligenței Artificiale. De această dată, în clipurile generate de Inteligența Artificială apar copii bolnavi, victime ale dezastrelor sau celebrități care cer donații urgente pentru diferite cauze umanitare. Oamenii donează, prin intermediul unor link-uri false, iar sumele de bani ajung direct la infractori.

 Romance scam. Este una dintre schemele preferate ale escrocilor. Aceștia generează profiluri false și imagini ori clipuri cu persoane atractive prin intermediul cărora dezvoltă relații emoționale cu victimele. Apoi, sub diferite pretexte cer bani pentru „urgențe medicale” sau „bilete de avion” sau alte cheltuieli. Este celebru cazul femeii care a plătit sume uriașe de bani unor astfel de ecroci crezând că are o relație cu celebrul actor american Brad Pitt.

 CEO/CFO fraud (Business E-mail Compromise evoluat). Victimele, lucrători ai unor companii sau instituții financiare sunt păcălite prin intermediul unor video-call-uri bazate pe deepfake în care apare un șef sau un client important care le cere să transfere urgent o sumă de bani într-un anumit cont. Sunt destui cei care pică în plasă, presați de cererea șefului de a face acest lucru cât mai repede, și reacționează fără să verifice dacă cererea este reală.

Un alt fenomen asupra căruia atrag atenția autoritățile, des întâlnit în mediul online, implică crearea unor imagini cu o persoană fictivă care pare reală. Aceste imagini sunt folosite pentru romance scams (escrocherii sentimentale), catfishing (falsificarea identității online), profiluri false de influenceri care promovează produse sau diverse tipuri de înșelătorii sau investiții, crearea de „martori” în povești false de investiții, șantaj sau chiar hărțuire (poze false cu persoane în situații compromițătoare).

De asemenea, deepfake-urile bazate pe Inteligența Artificială sunt folosite pentru dezinformarea și manipulare în domenii științifice sau politice sau pentru răspândirea teoriilor conspiraționiste. Clipurile video reproduc declarații false ale unor așa-ziși oameni de știință sau ale unor cadre medicale, ori martori din zone de conflict, care promovează teorii conspiraționiste despre diferite vaccinuri ori tratamente, despre situații inexistente, conflicte, cataclisme etc. Aceste materiale ajung frecvent în trending și sunt redistribuite inclusiv de canale media care nu verifică sursa.

Cum pot fi verificate clipurile false

Utilizarea Inteligenței Artificiale în scopuri ilegale poate avea consecințe dintre cele mai grave, de la pierderi financiare, la traume emoționale, pierderea încrederii în mass-media sau în instituțiile statului, manipulare politică sau în scop electorală, până la distrugerea reputației personale. Deepfak-urile pot fi utilizate chiar pentru a submina secuitatea națională, promovând informații sau declarații false ale unor politicieni sau șefi de instituții cu impact major asupra vieții sociale și economice într-o țară.

În acest context, autoritățile recomandă verificarea cu atenție a clipurilor video care ne sunt transmise pe diferite canale sau pe care le vizualizăm pe diferite platforme de socializare. Din experiența anterioară, se recomandă verificarea unor detalii care apar în imagini, care stârnesc suspiciuni sau nu sunt în conformitate cu realitatea.

De exemplu, atunci când urmăriți un clip suspect fiți atenți la clipitul ochilor personajului. În multe deepfake-uri mai vechi, clipitul era anormal. E drept că, în 2025, acest aspect a fost îmbunătățit dar, la o privire atentă tot apar inconsistențe.

Urmăriți mișcările buzelor vorbitorului, dacă sunt sincronizate cu sunetul. Această sincronizare este mai dificil de realizat mai ales pentru vorbitorii care transmit mesajele în alte limbi decât engleza.

Există și o serie de aspecte de natură „tehnică” pe care le putem urmări la un astfel de clip pentru constata dacă este vorba despre un deepfake. Urmăriți iluminiarea și umbrele de pe fața vorbitorului pentru a stabili dacă se potrivesc cu fundalul pe care apare. În clipurile false, anumite reflexii la ochi sau la dinți lipsesc sau nu sunt naturale.

Urmăriți mâinile și degetele personajelor. Un neajuns al tehnologiei bazată pe Inteligența Artificială este că în multe poziționări aspectul degetelor este anormal. Sunt și situații în care numărul degetelor de la mână sunt ori prea multe ori prea puține. De asemenea, în unele clipuri, personajele își țin mâinile sau brațele în poziții ciudate, nenaturale. Ochii sau pupilele personajelor deepfake sunt asimetrici sau anormal așezați pe față. Frizura pare anormală, iar îmbrăcămintea pe care o poartă nu prea are ses din punct de vedere fizic.

Este de urmărit cu atenție fundalul pe care a apare personajul, dacă este inconsistent sau dacă anumite obiecte par topite. Ar trebui să vă atragă atenția obiectele care apar în videoclip sau în imagini, dacă par deformate.

Pentru a depista un fals folosiți aplicațiile de reverse image search (Google Lens, TinEye) care vă vor arăta dacă imaginea a mai apărut undeva înainte de de data postării. Dacă această imagine nu a apărut, trebuie să vă puneți semne de întrebare.


În lipsa unui acord scris din partea Ziarului de Vrancea, puteţi prelua maxim 500 de caractere din acest articol dacă precizaţi sursa şi inseraţi vizibil link-ul articolului: #insertcurrentlinkhere

Ziarul de Vrancea  nu este responsabil juridic pentru conţinutul textelor din comentariile de mai jos. Responsabilitatea pentru mesajele dumneavoastra vă revine în exclusivitate.

Comentarii: 0

Adaugă comentariu
Trebuie să fii autentificat pentru a putea posta un comentariu.
Ziarul de Vrancea doreste ca acest site sa fie un spatiu al discutiilor civilizate, al comentariilor de bun simt. Din acest motiv, cei care posteaza comentarii la articole trebuie sa respecte urmatoarele reguli:
1. Sa se refere doar la articolul la care posteaza comentarii.
2. Sa foloseasca un limbaj civilizat, fara injurii, calomnii, comentarii antisemite, xenofobe sau rasiste.
3. Sunt interzise atacurile la adresa autorilor, daca acestea nu au legatura cu textul.
4. Username-ul sa nu fie nume de personalitati ale vietii publice sau parodieri ale acestora.
Autorul unui articol poate fi criticat pentru eventuale greseli, incoerenta, lipsa de documentare etc.
Nerespectarea regulilor mentionate mai sus va duce la stergerea comentariilor, fara avertisment si fara explicatii.
Abaterile repetate vor avea drept consecinta interdictia accesului la aceasta facilitate a site-ului.