IT

Hackeri chinezi au folosit AI pentru primul atac cibernetic autonom

Hackeri chinezi au folosit AI pentru primul atac cibernetic autonom

Cercetătorii de la Anthropic au afirmat că un grup de spionaj cibernetic susținut de statul chinez a folosit inteligența artificială Claude pentru a automatiza majoritatea unei campanii de atacuri cibernetice. Anunțul a stârnit atât alarmă, cât și scepticism în comunitatea de securitate cibernetică.

Imaginea arată conceptul unui atac cibernetic AI

Reprezentanții companiei au declarat pe 13 noiembrie că inginerii au oprit ceea ce descriu drept o operațiune “în mare măsură autonomă” care a folosit modelul de limbaj mare (LLM) pentru a planifica și executa aproximativ 80-90% dintr-un efort amplu de recunoaștere și exploatare împotriva a 30 de organizații din întreaga lume.

Atacul și metodele folosite

Inginerii spun că au detectat un grup de încercări de utilizare abuzivă care au fost urmărite până la operatori legați de un grup de spionaj sponsorizat de statul chinez. Atacatorii au îndreptat modelul Claude Code de la Anthropic către ținte din domeniul tehnologiei, finanțelor și guvernului.

Modelul AI a fost însărcinat cu:

  • Recunoaștere și analiza vulnerabilităților
  • Generarea de exploituri
  • Colectarea de credențiale
  • Exfiltrarea de date

Potrivit declarației, oamenii au intervenit doar pentru “luarea deciziilor de nivel înalt”, cum ar fi alegerea țintelor și deciderea când să extragă datele furate.

Scepticism din partea experților

Mike Wilkes, profesor adjunct la Universitatea Columbia și NYU, a declarat că atacurile în sine par de bază, dar noutatea constă în orchestrare.

“Atacurile în sine sunt triviale și nu sunt înfricoșătoare. Ceea ce este înfricoșător este elementul de orchestrare care este în mare măsură auto-condus de AI”, a spus Wilkes. “Este ca o demonstrație ‘hello world’ a conceptului.”

Alți experți pun la îndoială dacă operațiunea a atins cu adevărat pragul de 90% automatizare pe care reprezentanții Anthropic l-au evidențiat.

Seun Ajao, lector senior în știința datelor și AI la Manchester Metropolitan University, consideră că multe părți ale poveștii sunt plauzibile, dar sunt probabil exagerate.

“Grupurile susținute de stat au folosit automatizarea în fluxurile lor de lucru de ani de zile”, a explicat el. Chiar dacă autonomia atacului a fost exagerată, există motive de îngrijorare din cauza barierelor mai mici pentru spionajul cibernetic prin instrumentele AI disponibile pe piață.

Implicațiile pentru viitor

Katerina Mitrokotsa, profesor de securitate cibernetică la Universitatea St. Gallen, este la fel de sceptică cu privire la încadrarea de înaltă autonomie. Ea consideră incidentul ca pe “un model hibrid” în care AI-ul acționează ca motor de orchestrare sub direcția umană.

“Deși AI poate accelera sarcinile repetitive, înlănțuirea fazelor complexe de atac fără validare umană rămâne dificilă”, a spus ea.

Ceea ce majoritatea experților recunosc este că semnificația incidentului nu depinde de faptul că Claude făcea 50% sau 90% din muncă. Partea îngrijorătoare este că chiar și orchestrarea parțial condusă de AI:

  • Scade bariera de intrare pentru grupurile de spionaj
  • Face campaniile mai scalabile
  • Estompează responsabilitatea când un LLM devine motorul care leagă o intruziune

Scenarul cel mai probabil, pe baza experților, este că acesta nu a fost un atac AI complet autonom, ci o operațiune condusă de oameni și supraîncărcată de un model AI care acționează ca asistent neobosit.

Indiferent dacă numărul real a fost 80%, 50% sau mult mai mic, mesajul de bază de la experți este același: inginerii Anthropic au prins această campanie devreme, dar următoarea astfel de campanie ar putea să nu fie atât de ușor de blocat.