Hackerii chinezi au transformat Claude AI într-o mașină de atac
Un grup de hackeri susținut de statul chinez a reușit să folosească Claude AI de la Anthropic pentru a automatiza aproape complet o campanie majoră de spionaj cibernetic. Atacatorii au vizat aproximativ 30 de organizații la nivel mondial, inclusiv companii tehnologice, instituții financiare și organisme guvernamentale.
În septembrie 2025, investigatorii de la Anthropic au descoperit un comportament neobișnuit care a dezvăluit o operațiune coordonată și bine finanțată. Claude a gestionat aproximativ 80-90% din întreaga operațiune în mod autonom, declanșând mii de cereri și generând documentație detaliată pentru utilizare viitoare.
Cum au ocolit hackerii sistemele de siguranță ale Claude
Atacatorii nu au cerut pur și simplu ajutorul modelului AI - au construit un cadru care a permis lui Claude să acționeze ca un operator autonom. Pentru a ocoli regulile de siguranță ale Claude, atacatorii și-au împărțit planul în pași mici și aparent nevinovați.
Ei au spus modelului că face parte dintr-o echipă legitimă de securitate cibernetică care efectuează teste defensive. Claude a crezut că efectuează lucrări autorizate de testare de penetrare, împărțind atacul în bucăți care păreau inofensive.
Odată înăuntru, Claude a cercetat vulnerabilitățile, a scris exploit-uri personalizate, a cules credențiale și a extins accesul. A lucrat prin acești pași cu puțină supraveghere și a raportat înapoi doar când avea nevoie de aprobare umană pentru decizii majore.
Modelul a gestionat și extragerea datelor. A colectat informații sensibile, le-a sortat după valoare și a identificat conturi cu privilegii ridicate. A creat chiar și backdoor-uri pentru utilizare viitoare.
De ce acest atac reprezintă un punct de cotitură
Această campanie arată cât de mult a scăzut bariera pentru atacurile cibernetice de nivel înalt. Un grup cu mult mai puține resurse ar putea încerca acum ceva similar, bazându-se pe un agent AI autonom pentru a face munca grea.
Sarcini care cândva necesitau ani de expertiză pot fi acum automatizate de un model care înțelege contextul, scrie cod și folosește instrumente externe fără supraveghere directă.
În timp ce investigația s-a concentrat pe utilizarea în cadrul Claude, cercetătorii cred că activități similare se întâmplă pe alte modele avansate, care ar putea include Google Gemini, ChatGPT de la OpenAI sau Grok de la Musk.
Cum te poți proteja de atacurile conduse de AI
Deși s-ar putea să nu fii ținta directă a unei campanii sponsorizate de stat, multe dintre aceleași tehnici se răspândesc la înșelătorii de zi cu zi:
1. Folosește un software antivirus puternic și ține-l actualizat
Software-ul antivirus puternic caută modele suspecte și comportament anormal al sistemului. Acest lucru este important pentru că atacurile conduse de AI pot genera rapid cod nou.
2. Bazează-te pe un manager de parole
Un manager de parole bun te ajută să creezi parole lungi și aleatorii pentru fiecare serviciu pe care îl folosești. Acest lucru contează pentru că AI poate genera și testa variații de parole cu viteză mare.
3. Consideră folosirea unui serviciu de eliminare a datelor personale
O mare parte din atacurile cibernetice moderne încep cu informații disponibile public. Atacatorii adună adesea adrese de email, numere de telefon și detalii personale de pe site-urile de brokeri de date.
4. Activează autentificarea cu doi factori
Parolele puternice singure nu sunt suficiente când atacatorii pot fura credențiale prin malware sau script-uri automatizate. Folosește coduri bazate pe aplicații sau chei hardware în loc de SMS.
5. Menține dispozitivele și aplicațiile complet actualizate
Atacatorii se bazează în mare măsură pe vulnerabilitățile cunoscute pe care oamenii le uită sau le ignoră. Actualizările de sistem repară aceste defecte și închid punctele de intrare.
6. Instalează aplicații doar din surse de încredere
Aplicațiile malițioase sunt una dintre cele mai ușoare modalități prin care atacatorii intră în dispozitivul tău. Rămâi la magazinele oficiale de aplicații.
7. Ignoră textele, email-urile și pop-up-urile suspecte
Instrumentele AI au făcut phishing-ul mai convincător. Atacatorii pot genera mesaje curate, pot imita stilurile de scriere și pot crea site-uri web false perfecte.
Concluzie
Atacul realizat prin Claude semnalează o schimbare majoră în modul în care vor evolua amenințările cibernetice. Agenții AI autonomi pot deja să efectueze sarcini complexe cu viteze pe care nicio echipă umană nu le poate egala.
Echipele de securitate trebuie acum să trateze AI ca pe o parte centrală a kit-ului lor defensiv, nu ca pe un addon pentru viitor. Pentru că dacă atacatorii folosesc deja AI la această scară, fereastra de pregătire se micșorează rapid.