3dots.ro

Poliția Română rupe tăcerea! Pericolul uriaș din spatele videoclipurilor false. Cum poți fi distrus într-o secundă

Poliția Română rupe tăcerea! Pericolul uriaș din spatele videoclipurilor false. Cum poți fi distrus într-o secundă

Autoritățile trag un semnal de alarmă cu privire la riscurile majore asociate inteligenței artificiale generative, subliniind că materialele video falsificate prin intermediul acestei tehnologii au devenit o armă principală pentru infractorii cibernetici. Dincolo de fraudele financiare, aceste instrumente sunt utilizate pentru manipulare, distrugerea imaginii publice, provocarea unor suferințe emoționale sau răspândirea de informații false despre realități științifice.

Poliția Română explică faptul că evoluția rapidă a inteligenței artificiale (AI) din ultimii ani permite acum generarea unor imagini și clipuri video extrem de greu de distins de realitate. Deși scopul inițial al acestor progrese tehnologice este divertismentul, ele sunt deturnate frecvent pentru a induce în eroare cetățenii și a obține foloase materiale ilicite.

„Deepfake-urile (videoclipuri false create cu AI) şi imaginile generate artificial au devenit instrumentele preferate ale autorilor infracţiunilor din domeniul criminalităţii informatice, promovate masiv pe reţelele de socializare. Cetăţenii de bună-credinţă sunt induşi în eroare de aceste «capcane» crezând că văd celebrităţi, experţi financiari sau persoane aflate la nevoie”, se arată în comunicatul transmis de Poliția Română.

Oamenii legii au identificat cele mai răspândite metode de fraudare utilizate în anul 2025. Printre acestea se numără Trading scam și investment fraud, unde clipuri deepfake cu politicieni sau oameni de afaceri promovează platforme false de investiții în criptomonede sau „inteligență artificială miraculoasă”. Victimele sunt convinse să depună bani pe site-uri clonă, fondurile ajungând direct la infractori.

O altă metodă frecventă o reprezintă scam-urile caritabile, care folosesc imagini generate cu copii bolnavi sau victime ale unor catastrofe pentru a solicita donații urgente prin link-uri malițioase. De asemenea, fenomenul Romance scam a evoluat prin utilizarea AI, infractorii creând profiluri cu persoane atractive pentru a stabili legături emoționale și a solicita ulterior bani sub diverse pretexte, precum urgențe medicale.

Lista fraudelor continuă cu metoda CEO/CFO fraud, unde angajații sunt contactați prin apeluri video falsificate în care „șeful” solicită transferuri urgente, și cu impersonarea celebrităților care ar oferi produse gratuite. Statisticile pentru anul 2025 indică o creștere alarmantă a acestor tentative, pierderile la nivel global fiind estimate la zeci de miliarde de dolari anual.

Un pericol distinct îl reprezintă crearea de identități complet fictive. Uneltele digitale generează imagini perfecte cu persoane care nu există în realitate, folosite pentru a crea falși influenceri, martori mincinoși în scheme de investiții sau pentru șantaj și hărțuire. Consecințele acestor acțiuni variază de la pierderi financiare directe la traume emoționale severe și erodarea încrederii în instituții.

„Dacă nimic nu mai e real, atunci nimic nu mai contează”; manipulare politică şi electorală (deepfake-uri cu candidaţi care spun lucruri pe care nu le-au spus niciodată); distrugerea reputaţiei personale (revenge porn deepfake, folosit în special împotriva femeilor); ameninţări la securitatea naţională (deepfake-uri cu lideri politici care declară război etc.)”, avertizează sursa citată.

Pentru a ajuta populația să identifice materialele falsificate, polițiștii au emis un ghid de recunoaștere a deepfake-urilor. Chiar dacă în 2025 clipitul ochilor a fost îmbunătățit în videoclipurile generate, pot apărea încă inconsistențe. Cetățenii sunt sfătuiți să fie atenți la sincronizarea buzelor cu sunetul, la iluminarea feței în raport cu fundalul și la reflexiile din ochi sau dinți, care adesea lipsesc sau par nenaturale.

O slăbiciune majoră a modelelor AI rămâne redarea mâinilor și a degetelor, care pot apărea deformate, în număr greșit sau cu un aspect anormal. Alte indicii includ artefacte vizuale, zone neclare în jurul feței, fundaluri inconsistente sau obiecte care par să se topească. Verificarea imaginii prin motoare de căutare inversă (precum Google Lens) este recomandată pentru a stabili dacă fotografia a mai apărut în alt context.

Ca măsuri de protecție, regula de aur rămâne scepticismul față de ofertele care par „prea bune ca să fie adevărate”. Poliția recomandă evitarea accesării link-urilor nesolicitate, refuzul de a transfera bani persoanelor cunoscute exclusiv online și verificarea informațiilor pe canalele oficiale ale personalităților sau companiilor implicate. Activarea autentificării în doi pași (2FA) și utilizarea extensiilor de browser pentru detectarea deepfake-urilor sunt măsuri suplimentare de siguranță.

Pe lângă fraude, tehnologia este folosită și pentru dezinformare științifică. Circulă videoclipuri hiper-realiste cu falși astronauți NASA care neagă aselenizarea, „oameni de știință” care contestă încălzirea globală sau medici fictivi care promovează tratamente minune. De asemenea, sunt create mărturii false despre conflicte armate, cu victime inventate.

„Acestea nu mai sunt doar postări izolate pe grupuri conspirative. În anul 2025, astfel de clipuri ajung în trend pe reţelele de socializare, sunt distribuite de conturi cu sute de mii de followeri şi sunt preluate chiar şi de televiziuni locale care nu verifică sursele”, adaugă Poliţia Română.

Recent, au fost semnalate cazuri în care infractorii folosesc videoclipuri false cu ofițeri de poliție sau consultanți financiari pentru a convinge victimele să investească sau să divulge date bancare. Autoritățile subliniază că polițiștii nu inițiază niciodată apeluri video prin aplicații de chat și nu oferă sfaturi de investiții.

„În acest sens, pe lângă recomandările sus-menţionate, facem precizarea că niciodată poliţiştii nu vor apela cetăţenii cu video, prin intermediul anumitor aplicaţii şi cu atât mai mult nu vor face recomandări de investiţii. Totodată, poliţiştii colaborează doar instituţional cu unităţile bancare, în vederea recuperării prejudiciilor sau în cadrul activităţilor desfăşurate şi nu vor face recomandări sau îndrumări cetăţenilor în niciun fel, de genul «urmează să fiţi sunaţi de banca X sau de vreo altă instituţie financiară»”, precizează Poliţia.

Pentru a exemplifica aceste tentative de fraudă, instituția a publicat imagini cu persoane care pretind a fi polițiști, evidențiind discrepanțele majore: hainele utilizate nu corespund uniformei oficiale, iar gradele afișate pe umeri sunt inexistente în ierarhia Poliției Române, unde gradele reale sunt reprezentate prin stele.

Powered by VA Labs