Chiar fondatorii ChatGPT trag semnalul de alarmă: "Inteligența artificială ar putea prelua omenirea!"

Postat la: 25.05.2023 | Scris de: ZIUA NEWS

Chiar fondatorii ChatGPT trag semnalul de alarmă:

Echipa din spatele ChatGPT susține că este nevoie de un echivalent al unui organism de supraveghere atomică pentru a se proteja împotriva riscurilor pe care le prezintă inteligența artificială "superinteligentă", informează The Guardian.

Echipa din spatele ChatGPT spune că este nevoie de un echivalent al unui „câine de pază atomic" pentru a se proteja împotriva riscurilor AI "superinteligente". Într-o scurtă notă publicată pe site-ul web al companiei, cofondatorii Greg Brockman și Ilya Sutskever și directorul executiv, Sam Altman, solicită ca un organism internațional de reglementare să înceapă să lucreze la modul în care să "inspecteze sistemele, să solicite audituri, să testeze conformitatea cu standardele de siguranță [și] să impună restricții privind gradele de implementare și nivelurile de securitate" pentru a reduce "riscul existențial" pe care l-ar putea reprezenta astfel de sisteme.

"Este de conceput că, în următorii 10 ani, sistemele de inteligență artificială vor depăși nivelul de îndemânare al experților în majoritatea domeniilor și vor desfășura la fel de multe activități productive ca una dintre cele mai mari corporații de astăzi", scriu ei. "Atât în ceea ce privește potențialele avantaje, cât și dezavantaje, superinteligența va fi mai puternică decât alte tehnologii cu care omenirea a trebuit să se confrunte în trecut. Putem avea un viitor dramatic mai prosper; dar trebuie să gestionăm riscurile pentru a ajunge acolo. Având în vedere posibilitatea unui risc existențial, nu putem fi doar reactivi."

Pe termen scurt, cei trei fac apel la "un anumit grad de coordonare" între companiile care lucrează în domeniul cercetării de vârf în domeniul inteligenței artificiale, pentru a se asigura că dezvoltarea unor modele din ce în ce mai puternice se integrează fără probleme în societate, acordând în același timp prioritate siguranței. Această coordonare ar putea fi realizată, de exemplu, printr-un proiect condus de guvern sau printr-un acord colectiv pentru a limita creșterea capacității de inteligență artificială.

Cercetătorii au avertizat de zeci de ani asupra riscurilor potențiale ale superinteligenței, dar, pe măsură ce dezvoltarea IA a luat viteză, aceste riscuri au devenit mai concrete. Centrul pentru siguranța inteligenței artificiale (CAIS), cu sediul în SUA, care se ocupă de "reducerea riscurilor la scară societală generate de inteligența artificială", descrie opt categorii de riscuri "catastrofale" și "existențiale" pe care le-ar putea prezenta dezvoltarea IA.

Liderii OpenAI spun că aceste riscuri înseamnă că "oamenii din întreaga lume ar trebui să decidă în mod democratic limitele și valorile implicite ale sistemelor de inteligență artificială", dar admit că "nu știm încă cum să concepem un astfel de mecanism". Cu toate acestea, ei spun că dezvoltarea continuă a unor sisteme puternice merită riscul.

loading...
PUTETI CITI SI...