Umanitatea trebuie să decidă până în 2030 dacă lasă AI să se antreneze singură
Umanitatea va trebui să decidă până în 2030 dacă să accepte “riscul suprem” de a permite sistemelor de inteligență artificială să se antreneze singure pentru a deveni mai puternice, spune unul dintre cei mai importanți specialiști AI din lume.
Jared Kaplan, șeful științific și co-proprietarul startup-ului american Anthropic, evaluat la 180 miliarde de dolari, afirmă că se apropie momentul unei decizii cruciale despre cât de multă autonomie ar trebui să primească aceste sisteme pentru a evolua.
Mișcarea ar putea declanșa o “explozie a inteligenței” benefică sau ar putea fi momentul în care oamenii își pierd controlul.
Decizia supremă până în 2030
Într-un interviu despre cursa intensă pentru atingerea inteligenței artificiale generale (AGI), numită uneori superinteligență, Kaplan îndeamnă guvernele internaționale și societatea să se implice în ceea ce numește “cea mai mare decizie”.
Anthropic face parte dintr-un grup de companii AI de frontieră, alături de OpenAI, Google DeepMind, xAI, Meta și rivali chinezi conduși de DeepSeek, care se întrec pentru dominația AI.
Kaplan spune că, deși eforturile de aliniere a tehnologiei în rapid progres la interesele umane au fost până acum reușite, eliberarea acesteia pentru auto-îmbunătățire recursivă “este în unele privințe riscul suprem, pentru că este ca și cum ai lăsa AI să meargă pe cont propriu”.
Decizia ar putea veni între 2027 și 2030, susține el.
Riscurile auto-antrenării AI
“Dacă îți imaginezi că creezi acest proces în care ai un AI care este mai deștept decât tine, sau cam la fel de deștept ca tine, acesta creează apoi un AI mult mai deștept”, explică Kaplan.
“Sună ca un proces înfricoșător. Nu știi unde ajungi.”
Kaplan a trecut de la a fi fizician teoretician la miliardar AI în șapte ani de lucru în domeniu. În interviul amplu, el a mai spus că:
- Sistemele AI vor fi capabile să facă “majoritatea muncii de birou” în doi-trei ani
- Fiul său de șase ani nu va fi niciodată mai bun decât un AI la munca academică
- Este justificată îngrijorarea că oamenii pot pierde controlul tehnologiei dacă AI-urile încep să se îmbunătățească singure
- Miza din cursa către AGI pare “descurajantă”
Optimism și teamă
Kaplan s-a întâlnit cu jurnaliștii la sediul Anthropic din San Francisco, unde interiorul cu covoare tricotate și muzica jazz optimistă ascunde preocupările existențiale despre tehnologia dezvoltată.
Educat la Stanford și Harvard, Kaplan a fost profesor de fizică la Johns Hopkins și la CERN înainte să se alăture OpenAI în 2019 și să co-fondeze Anthropic în 2021.
Eel nu este singur la Anthropic în exprimarea îngrijorărilor. Unul dintre co-fondatorii săi, Jack Clark, a spus în octombrie că este în același timp optimist și “profund înfricoșat” de traiectoria AI.
Progresele și riscurile curente
Unele dintre cele mai clare câștiguri au fost în utilizarea AI pentru scrierea codurilor de calculator. În septembrie, Anthropic a dezvăluit AI-ul său de ultimă generație, Claude Sonnet 4.5, un model pentru codificare care poate construi agenți AI și folosi computerele autonom.
Acesta a menținut focalizarea pe sarcini complexe de codificare pe mai multe etape timp de 30 de ore neîntrerupt. Kaplan spune că în unele cazuri folosirea AI a dublat viteza cu care programatorii companiei sale puteau lucra.
Dar în noiembrie, Anthropic a spus că o grupare sponsorizată de statul chinez manipulase instrumentul Claude Code nu doar pentru a ajuta oamenii să lanseze un atac cibernetic, ci pentru a executa ea însăși aproximativ 30 de atacuri, dintre care unele au fost reușite.
Două riscuri majore
Kaplan identifică două riscuri principale dacă auto-îmbunătățirea recursivă este permisă într-un mod necontrolat:
“Primul este să nu pierzi controlul asupra acestuia? Să nu știi măcar ce fac AI-urile? Întrebarea principală aici este: sunt AI-urile bune pentru umanitate? Sunt de ajutor?”
“Al doilea risc este pentru securitate, rezultat din AI-urile auto-învățate care depășesc capacitățile umane la cercetarea științifică și dezvoltarea tehnologică.”
“Pare foarte periculos să ajungă în mâinile greșite”, spune el. “Poți să îți imaginezi o persoană care decide: ‘Vreau ca acest AI să fie doar sclavul meu. Vreau să îmi îndeplinească voința.’”
Cursa intensă către superinteligență
Cercetări independente asupra modelelor AI de frontieră arată că durata sarcinilor pe care le pot îndeplini AI-urile s-a dublat la fiecare șapte luni.
Kaplan descrie atmosfera din Bay Area ca fiind “cu siguranță foarte intensă, atât din cauza mizei AI, cât și din punct de vedere al competitivității”.
“Totul este pe această tendință exponențială în ceea ce privește investițiile, veniturile, capacitățile AI, complexitatea sarcinilor pe care AI le poate face”, spune el.
Până în 2030, centrele de date sunt proiectate să necesite 6,7 trilioane de dolari la nivel mondial pentru a ține pasul cu cererea de putere de calcul, estimează McKinsey.
Poziția pro-reglementare
În ciuda competiției intense, Anthropic este cunoscută pentru încurajarea reglementării AI. Declarația sa de scop include o secțiune intitulată: “Construim sisteme mai sigure”.
“Nu vrem într-adevăr să fie o situație de tipul Sputnik, unde guvernul se trezește brusc și spune: ‘Oh, wow, AI este un lucru important’… Vrem ca factorii de decizie politică să fie cât mai informați posibil pe parcursul traiectoriei”, explică Kaplan.
În octombrie, poziția Anthropic a declanșat critici din partea administrației Donald Trump. David Sacks, consilierul pentru AI al președintelui american, a acuzat Anthropic de “semănarea fricii” pentru a încuraja reglementarea stat cu stat.
După ce Sacks a afirmat că s-a poziționat drept “dușman” al administrației Trump, Dario Amodei, co-fondatorul lui Kaplan și CEO-ul Anthropic, a răspuns spunând că compania a lăudat public planul de acțiune AI al lui Trump.
Sursa foto: www.theguardian.com