Revista „Time” a publicat scrisoarea-apel a unui specialist important din domeniul inteligenței artificiale avansate, Eliezer Yudkowsky. Și alți specialiști susțin că, prin ChatGPT și IA, nu suntem în fața unui subiect pur tehnologic, că nu trebuie să lăsăm dezbaterea pe mâna companiilor sau guvernelor. E vorba despre supraviețuirea noastră ca specie, cred acești oameni.
În aceeași zi în care Elon Musk și un grup de experți au cerut o pauză de șase luni în dezvoltarea inteligenței artificiale avansate, Eliezer Yudkowsky, fondator al Machine Intelligence Research Institute, un institut axat pe identificarea potențialelor riscuri legate de inteligența artificială, a trimis revistei americane Time o scrisoare deschisă în care cere oprirea pe termen nedeterminat a dezvoltării acesteia. Eliezer Yudkowsky susține că pauza de șase luni de la antrenarea sistemelor de inteligență artificială (IA) generativă, cum ar fi ChatGPT, propusă de Elon Musk și grupul de experți, deși binevenită, nu e suficientă.
Riscul menționat de cercetător este chiar extincția speciei umane. „Mulți cercetători implicați în aceste probleme, printre care mă număr și eu, se așteaptă ca rezultatul cel mai probabil al construirii unei inteligențe artificiale supraomenești, în circumstanțe cât de cât asemănătoare cu cele actuale, să fie că toată lumea de pe Pământ va muri”, scrie el. „Ești făcut din atomi pe care IA îi poate folosi pentru altceva” Eliezer Yudkowsky consideră că omenirea nu este pregătită să facă față astăzi unei asemenea provocări. „Ar necesita precizie și pregătire și noi perspective științifice, și, probabil, nu ar avea sisteme IA compuse din matrice uriașe de numere fracționale imperceptibile”
„Fără această precizie și pregătire”, continuă el, „cel mai probabil rezultat este că IA nu face ceea ce vrem și nu-i va păsa de noi și nici de viața conștientă în general. Acest tip de grijă este ceva care, în principiu, ar putea fi introdus într-o IA, dar nu suntem pregătiți și nu știm în prezent cum”, avertizează cercetătorul. În absența acestei griji, obținem „IA nu te iubește și nici nu te urăște, și ești făcut din atomi pe care îi poate folosi pentru altceva”. Eliezer Yudkowsky, cercetător în domeniul inteligenței artificiale: Eliezer Yudkowsky „Nu va rămâne la computere” Specialistul susține că „o inteligență artificială suficient de dezvoltată nu va rămâne mult timp limitată la computere”. „În lumea de astăzi, se pot trimite prin e-mail șiruri de ADN către laboratoare, care vor produce proteine la cerere, permițând astfel unei inteligențe artificiale inițial limitate la internet să construiască forme de viață artificiale sau să treacă direct la producția moleculară postbiologică”, argumentează el.
În aceste condiții, riscul distrugerii omenirii este cât se poate de real, subliniază Yudkowsky. Dacă cineva construiește o inteligență artificială prea puternică, în condițiile actuale, mă aștept ca fiecare membru al speciei umane și toată viața biologică de pe Pământ să moară la scurt timp după aceea. Eliezer Yudkowsky, cercetător în domeniul inteligenței artificiale: „Minți digitale” Un alt risc, avertizează acesta, este acela de a crea „din neatenție minți digitale care sunt cu adevărat conștiente și ar trebui să aibă drepturi, și nu ar trebui să fie deținute”. „Dacă nu poți fi sigur că creezi o inteligență artificială conștientă de sine, acest lucru este alarmant nu doar din cauza implicațiilor morale ale părții conștient de sine, ci și pentru că a fi nesigur înseamnă că nu ai nicio idee despre ceea ce faci, iar acest lucru este periculos și ar trebui să te oprești”, mai spune cercetătorul. Conform mai multor cercetători care studiază fenomenul IA, „conștient de sine” înseamnă, printre altele, ca IA să dețină simț critic, să separe binele de rău, în maniera în care această separare a ajutat la fondarea și dezvoltarea civilizației umane. În plus, să poată exprima empatie. Nici una dintre aceste trăsături nu există acum în procedurile IA.
O pauză de câteva decenii Insistând asupra faptului că omenirea e departe de a fi pregătită pentru astfel de sisteme, Yudkowsky avansează un interval de câteva decenii pentru ca o astfel de pregătire să fie temeinică. „Nu suntem pregătiți. Nu suntem pe cale să fim pregătiți în niciun interval de timp rezonabil. Nu există niciun plan. Progresul, în ceea ce privește capacitățile de inteligență artificială, este cu mult, mult mai avansat decât progresul în ceea ce privește alinierea inteligenței artificiale sau chiar progresul în ceea ce privește înțelegerea a ceea ce se întâmplă în interiorul acestor sisteme. Dacă vom face acest lucru cu adevărat, vom muri cu toții.”, mai spune el.
Ce trebuie făcut?
„Fiți dispuși să distrugeți un centru de date prin atacuri aeriene” În încheierea scrisorii, savantul spune ce măsuri ar trebui impuse la nivel internațional de urgență: Închideți toate clusterele mari de GPU – fermele mari de computere în care sunt rafinate cele mai puternice programe de inteligență artificială. Închideți toate cursele mari de antrenament (IA). Stabiliți un plafon la cantitatea de putere de calcul permisă pentru antrenarea unui sistem IA și mutați-l în jos în următorii ani pentru a compensa algoritmii de antrenament mai eficienți. Fără excepții pentru guverne și armate. Încheiați imediat acorduri multinaționale pentru a preveni mutarea activităților interzise în altă parte.
Urmăriți toate GPU-urile vândute. Dacă serviciile de informații spun că o țară din afara acordului construiește un cluster de GPU, fiți mai puțin speriați de un conflict puternic între națiuni decât de încălcarea moratoriului; Fiți dispuși să distrugeți un centru de date necinstite prin atacuri aeriene. Instalație de cloud computing Server Farm. Foto: Shutterstock „Opriți totul” este apelul său, repetat de mai multe ori pe parcursul scrisorii-apel.
Sursa: Libertatea.ro