Ministerul Afacerilor Interne avertizează asupra unei noi metode de fraudă care devine tot mai frecventă: infractorii folosesc inteligența artificială pentru a imita vocea unor persoane apropiate și pentru a convinge victimele să trimită bani în regim de urgență.
Potrivit autorităților, escrocii au nevoie doar de câteva secunde de înregistrare audio, de regulă preluate de pe rețelele sociale, pentru a genera apeluri extrem de convingătoare. Victimele aud la telefon vocea unei rude sau a unui prieten care pretinde că a suferit un accident sau trece printr-o situație gravă și cere ajutor financiar imediat.
Cum funcționează frauda și ce recomandă autoritățile
Reprezentanții MAI explică faptul că scenariul este construit pentru a provoca panică și grabă, astfel încât victima să nu aibă timp să verifice informațiile. Mesajul este aproape întotdeauna legat de o urgență care „nu suportă amânare”, iar scopul este obținerea rapidă de bani sau date bancare.
Autoritățile recomandă ca, în cazul unui astfel de apel, oamenii să închidă imediat, să contacteze persoana respectivă pe numărul cunoscut și să nu trimită bani și să nu ofere informații personale sau financiare. Ministerul încurajează distribuirea avertismentului pentru a preveni apariția altor victime.
Articolul Escrocherie cu voci clonate prin AI: MAI avertizează asupra apelurilor false în numele rudelor apare prima dată în Monitorul Expres – Stiri Brasov.
Citeste mai mult