Confuzia Limbajului in Era Inteligenței Artificiale
Un episod al serialului The Twilight Zone din anii ’80, intitulat “Wordplay”, ne arată cum mici schimbări în limbaj pot genera mari confuzii. Bill Lowery, un agent de vânzări, este complet bulversat când colegii și familia încep să folosească cuvinte familiare în moduri necunoscute. Similar, modelele de limbaj AI, cunoscute ca LLM-uri, pot crea informații false, apelând la predicții bazate pe texte anterioare.
În acest context, conceptul de halucinație nu este tocmai potrivit. Spre deosebire de halucinații, care implică o falsă credință, un LLM nu „crede” nimic. Modelele AI combină practic tipare statistice pentru a genera text, creând adesea lumi fictive, plauzibile dar false - așa-numitul slopverse.
Această „realitate alternativă” este comparată cu mulțiversurile din ficțiune, cum ar fi cele din universul Marvel sau serialul Rick and Morty. Spre deosebire de fanteziile evidente ale acestor povești, AI creează lumile multiversale care sunt înșelător de aproape de realitate, dar cu mici discrepanțe care pot avea consecințe neașteptate.
Utilizatorii sunt deja obișnuiți cu inexactitățile online, de la căutările Google la rezultatele din social media. Totuși, pe măsură ce tehnologia AI se dezvoltă, aceste inadvertențe subtile ale informațiilor generate pot deveni tot mai dificil de diferențiat de realitate.
O soluție ar putea fi îmbunătățirea constantă a datelor și a proceselor de antrenament ale modelelor AI pentru a reduce discrepanțele multiversale. În caz contrar, ne putem confrunta cu o realitate în care ceea ce ne apare ca realitate este, de fapt, doar o posibilitate generată statistic de un AI.