Inteligența artificială s-a infiltrat de-acum definitiv în structura digitală globală, iar perilurile pe care le aduce sunt mai reale și mai periculoase decât se credea inițial. Dacă până nu demult se discuta despre valoarea adăugată a AI în creșterea productivității și în stimularea inovației, ultimele cercetări indică o nouă față a acestui fenomen: un instrument exploatat pentru atacuri cibernetice sofisticate, cu impact direct asupra securității naționale și private. Un raport recent arată clar cum modelul Gemini, o tehnologie AI avansată, este deja utilizat de actori statali și grupări criminale pentru aproape întregul spectru al unui atac, de la recunoaștere până la exfiltrare.
Creșterea vitezei și a scalabilității în atacurile cibernetice
Este esențial să înțelegem că AI nu a inventat noi tipuri de amenințări, ci a amplificat în mod considerabil viteza, agresivitatea și accesibilitatea celor deja cunoscute. Înainte, pentru a desfășura un atac complex, un hacker sau o grupare criminală aveau nevoie de echipe specializate, de mult timp și efort financiar considerabil. Acum, însă, pot obține rapid sprijin pentru cercetare, redactare de mesaje frauduloase, testare de cod și chiar integrarea unor funcții noi în instrumente existente, totul automatizat, în câteva momente. În esență, AI nu înlocuiește atacatorul, ci îl transformă într-un profesionist mai eficient și mai grațios în același timp.
Un nou nivel de sofisticare în exploatarea AI
Pentru a demonstra această tendință, analizele arată cum actorii rău intenționați, inclusiv cele din cercurile statale, utilizează AI în aproape fiecare etapă a unui atac și pentru diverse scopuri. Grupări din China, Iran, Coreea de Nord sau Rusia folosesc modelul Gemini pentru profilarea țintelor, colectarea informațiilor publice, creare de mesaje phishing convingătoare, traducerea și generarea de cod, dar și pentru testarea vulnerabilităților. În multe cazuri, AI devine un „copilot” tehnic, asistând atacatorul în mod subtil, chiar și în scenariile de intruziune țintită.
Un exemplu elocvent constă în scenarii fabricate, prin care modelul AI oferă recomandări specializate pentru identificarea vulnerabilităților, inclusiv în domeniul executării de cod la distanță sau tehnici de ocolire a mecanismelor defensive. Chiar și în situațiile în care prompturile sunt formulate ca exerciții teoretice, analistul uman poate descifra intenția practică. În paralel, au fost identificate cazuri în care AI contribuie la repararea rapidă a codului malițios, la clarificarea unor concepte tehnice sau la accelerarea procesului de cercetare înainte de un atac.
De la phishing sofisticat la malware „augmentat”
Un alt aspect confirmat de ultimul raport este modul în care AI este utilizat pentru a crea malware mai avansat. Două exemple importante sunt HonestCue și CoinBait, care indică direcția în care evoluează ecosistemul infracțional. HonestCue, de exemplu, este un framework ce folosește API-ul Gemini pentru a genera cod C# pentru componente de malware, apoi le compilează și le rulează în memorie, eliminând necesitatea intervenției manuale a hackerului. Este un pas semnificativ spre automatizarea completă a procesului de creare a codului malițios.
CoinBait reprezintă un kit de phishing în formă de aplicație web, conceput pentru a fura credențiale. Indicatorii tehnici sugerează că dezvoltarea sa a fost accelerată cu uneltele AI, care generează cod și oferă mesaje log specific care pot fi folosite ulterior pentru identificare și urmărire. Deși acestea sunt prototipuri, ele semnalează o tendință clară: actorii rău intenționați nu mai așteaptă, ci experimentează intens, iar ceea ce astăzi pare doar o demonstrație tehnică poate deveni rapid o practică standard în campaniile viitoare.
Infiltrarea în campanii de inginerie socială și noi straturi de înșelăciune
Utilizarea AI în campaniile de phishing devine tot mai sofisticată, mai credibilă. Într-un scenariu recent, servicii generative sunt folosite pentru a crea reclame malițioase sau mesaje de tip ClickFix, care distribuie malware pentru macOS. Aici, calitatea textului și traducerile sunt mult îmbunătățite, iar mesajele devin mai convingătoare, adaptate limbii și contextului victimei. Astfel, încercările de înșelătorie devin dificil de detectat, iar utilizatorul obișnuit trebuie să fie mai vigilent ca niciodată.
Riscuri dincolo de atacurile directe: furtul de cunoaștere și modelul de business
Un capitol mai puțin vizibil, dar la fel de periculos, îl reprezintă încercările de a extrage și distila cunoașterea din modelele AI. Actorii cu acces la API-uri pot interoga sistematic modele de înaltă performanță, colectând răspunsuri și instruind alte modele mai ieftine și mai greu de urmărit. Această practică amenință proprietatea intelectuală, reduce avantajul competitiv și, în final, poate afecta și costurile consumatorilor finali, pentru că se pierde controlul asupra valorii și strategiilor de business pe termen lung.
Ce urmează în noul peisaj digital?
Se conturează un duel tot mai acerb între atacatori și apărători. În timp ce infractorii vor integra AI în toolset-urile lor pentru a automatiza și varia conținutul, companiile și organizațiile trebuie să-și intensifice măsurile de securitate. Implementarea unor politici clare privind utilizarea AI, audituri riguroase asupra prompturilor, monitorizarea comportamentală și exercițiile periodice de simulare a atacurilor devin piatra de temelie a unei strategii de reziliență.
Pentru utilizatorii finali, regula simplă rămâne aceeași: verificați întotdeauna sursa înainte de a acționa, tratați cu suspiciune mesajele sau solicitările de urgență și nu executați comenzi sau instalați utilitare de la surse necunoscute. În această epocă a accelerării digitale, AI este un accelerant neîntrecut pentru inovație, dar și pentru amenințări. Diferența dintre cele două situații depinde însă de nivelul de guvernanță, de disciplina digitală și de vigilența fiecăruia dintre noi.



