Statele Unite trebuie să acționeze „decisiv" pentru a preveni amenințarea "la nivel de extincție" pentru specia umană pe care o reprezintă inteligența artificială
Postat la: 12.03.2024 | Scris de: ZIUA NEWS
Guvernul SUA trebuie să acționeze „rapid și decisiv" pentru a evita riscurile substanțiale la adresa securității naționale care decurg din inteligența artificială (AI) și care ar putea, în cel mai rău caz, să provoace o „amenințare la nivel de extincție pentru specia umană", se arată într-un raport comandat de guvernul SUA.
„Dezvoltarea actuală a AI (...) prezintă riscuri urgente și în creștere pentru securitatea națională", se arată în raportul pe care TIME l-a obținut înainte de publicare. „Ascensiunea AI avansată și AGI [inteligența artificială generativă] au potențialul de a destabiliza securitatea globală în moduri care amintesc de introducerea armelor nucleare". AGI este o tehnologie ipotetică care ar putea îndeplini majoritatea sarcinilor la nivelul sau peste nivelul unui om. Astfel de sisteme nu există în prezent, dar cele mai importante laboratoare de inteligență artificială lucrează la ele și mulți se așteaptă ca AGI să apară în următorii cinci ani sau mai puțin.
Cei trei autori ai raportului au lucrat la acesta timp de mai bine de un an, discutând cu peste 200 de angajați guvernamentali, experți și angajați de la companii de AI de ultimă generație - precum OpenAI, Google DeepMind, Anthropic și Meta - în cadrul cercetării lor. Relatările din unele dintre aceste conversații conturează o imagine îngrijorătoare, sugerând că mulți lucrători din domeniul siguranței AI din cadrul laboratoarelor de ultimă oră sunt îngrijorați de stimulentele perverse care conduc luarea deciziilor de către directorii care controlează companiile lor.
Documentul finalizat, intitulat „Un plan de acțiune pentru creșterea siguranței și securității inteligenței artificiale avansate", recomandă un set de acțiuni politice radicale și fără precedent care, dacă vor fi adoptate, vor perturba radical industria inteligenței artificiale. Congresul ar trebui să facă ilegală, recomandă raportul, antrenarea modelelor de inteligență artificială folosind mai mult de un anumit nivel de putere de calcul. Pragul, recomandă raportul, ar trebui să fie stabilit de o nouă agenție federală pentru inteligență artificială, deși raportul sugerează, de exemplu, că agenția ar putea să îl stabilească imediat deasupra nivelurilor de putere de calcul utilizate pentru a antrena modelele actuale de ultimă generație, cum ar fi GPT-4 de la OpenAI și Gemini de la Google.
Noua agenție de inteligență artificială ar trebui să ceară companiilor de inteligență artificială aflate la „frontiera" industriei să obțină permisiunea guvernului pentru a antrena și implementa noi modele dincolo de un anumit prag minim, adaugă raportul. Autoritățile ar trebui, de asemenea, să ia în considerare „urgent" interzicerea publicării algoritmilor de funcționare internă a modelelor puternice de inteligență artificială, de exemplu sub licențe open-source, iar încălcările ar putea fi pedepsite cu închisoarea, se arată în raport. De asemenea, guvernul ar trebui să înăsprească și mai mult controalele privind fabricarea și exportul de cipuri de inteligență artificială și să canalizeze finanțarea federală către cercetări de „aliniere" care urmăresc să facă inteligența artificială avansată mai sigură, recomandă raportul.
Raportul a fost comandat de Departamentul de Stat în noiembrie 2022, ca parte a unui contract federal în valoare de 250.000 de dolari, potrivit documentelor publice. Acesta a fost redactat de Gladstone AI, o companie formată din patru persoane care organizează ședințe de informare tehnică privind inteligența artificială pentru angajații guvernamentali. (Unele părți ale planului de acțiune recomandă ca guvernul să investească masiv în educarea funcționarilor cu privire la bazele tehnice ale sistemelor de inteligență artificială, astfel încât să poată înțelege mai bine riscurile acestora). Raportul a fost livrat sub forma unui document de 247 de pagini Departamentului de Stat la 26 februarie. Departamentul de Stat nu a răspuns la mai multe solicitări de comentarii cu privire la acest raport. Recomandările „nu reflectă punctul de vedere al Departamentului de Stat al Statelor Unite sau al Guvernului Statelor Unite", se arată pe prima pagină a raportului.
Recomandările raportului, multe dintre ele de neconceput până acum, urmează unei serii amețitoare de evoluții majore în domeniul inteligenței artificiale, care au determinat mulți observatori să își recalibreze poziția față de această tehnologie. Chatbotul ChatGPT, lansat în noiembrie 2022, a marcat momentul când acest ritm de schimbare a devenit vizibil pentru întreaga societate, ceea ce i-a determinat pe mulți oameni să se întrebe dacă viitoarele AI ar putea prezenta riscuri existențiale pentru umanitate. De atunci, noi instrumente, cu mai multe capabilități, au continuat să fie lansate într-un ritm rapid. În timp ce guvernele din întreaga lume discută despre cum să reglementeze cel mai bine AI, cele mai mari companii de tehnologie din lume au construit rapid infrastructura pentru a antrena următoarea generație de sisteme mai puternice - în unele cazuri, plănuind să utilizeze o putere de calcul de 10 sau 100 de ori mai mare. Între timp, mai mult de 80% din publicul american crede că AI ar putea provoca accidental un eveniment catastrofal, iar 77% dintre alegători cred că guvernul ar trebui să facă mai mult pentru a reglementa AI, potrivit unui sondaj recent realizat de AI Policy Institute.
Raportul afirmă că interzicerea antrenării sistemelor avansate de inteligență artificială care depășesc un anumit prag ar putea „modera dinamica cursei între toți dezvoltatorii de inteligență artificială" și ar putea contribui la o reducere a vitezei de producție de hardware mai rapid de către industria cipurilor. În timp, o agenție federală pentru inteligență artificială ar putea ridica pragul și permite antrenarea unor sisteme de inteligență artificială mai avansate, odată ce dovezile privind siguranța modelelor de ultimă generație vor fi suficient de dovedite, propune raportul. În egală măsură, se spune în raport, guvernul ar putea reduce pragul de siguranță dacă se descoperă capacități periculoase în modelele existente.
Propunerea se va confrunta probabil cu dificultăți politice. „Cred că este extrem de puțin probabil ca această recomandare să fie adoptată de guvernul Statelor Unite", spune Greg Allen, director al Centrului Wadhwani pentru AI și tehnologii avansate din cadrul Centrului pentru Studii Strategice și Internaționale (CSIS), ca răspuns la un rezumat pe care TIME l-a furnizat cu privire la recomandarea din raport de a scoate în afara legii modelele de antrenament AI care depășesc un anumit prag. Politica actuală a guvernului SUA în materie de inteligență artificială, notează el, este de a stabili praguri de calcul peste care se aplică cerințe suplimentare de monitorizare și reglementare în materie de transparență, dar nu de a stabili limite peste care antrenamentele ar fi ilegale. „În absența unui șoc exogen, cred că este puțin probabil ca ei să schimbe această abordare", spune Allen.
Jeremie și Edouard Harris, CEO și, respectiv, CTO al Gladstone, au informat guvernul SUA cu privire la riscurile AI încă din 2021. Cei doi, care sunt frați, spun că oficialii guvernamentali care au participat la multe dintre primele lor ședințe de informare au fost de acord că riscurile AI sunt semnificative, dar le-au spus că responsabilitatea de a le face față revenea unor echipe sau departamente diferite. La sfârșitul anului 2021, Gladstone a găsit în cele din urmă o ramură a guvernului cu responsabilitatea de a aborda riscurile AI: Biroul de Securitate Internațională și Neproliferare al Departamentului de Stat. Echipele din cadrul Biroului au un mandat interinstituțional de a aborda riscurile generate de tehnologiile emergente, inclusiv armele chimice și biologice, precum și riscurile radiologice și nucleare. În urma unor informări din partea lui Jeremie și a directorului general de atunci al Gladstone, Mark Beall, în octombrie 2022, Biroul a lansat o licitație pentru un raport care ar putea fundamenta o decizie de a adăuga AI la lista altor riscuri pe care le monitorizează. Echipa Gladstone a câștigat acel contract, iar raportul publicat luni este rezultatul acestuia.
Raportul se concentrează pe două categorii distincte de risc. Descriind prima categorie, pe care o numește „risc de înarmare", raportul afirmă: „astfel de sisteme ar putea fi folosite pentru a proiecta și chiar a executa atacuri catastrofale biologice, chimice sau cibernetice, sau pentru a permite aplicații armate fără precedent în robotica de tip roi. A doua categorie este ceea ce raportul numește riscul de „pierdere a controlului", sau posibilitatea ca sistemele avansate de inteligență artificială să își depășească creatorii. Există, spune raportul, „motive să credem că acestea ar putea fi incontrolabile dacă sunt dezvoltate folosind tehnicile actuale și ar putea avea un comportament advers față de ființele umane în mod implicit".
Ambele categorii de risc, se spune în raport, sunt exacerbate de „dinamica rasială" din industria AI. Probabilitatea ca prima companie care va realiza AGI să culeagă majoritatea recompenselor economice, spune raportul, stimulează companiile să acorde prioritate vitezei în detrimentul siguranței. „Laboratoarele de AI de frontieră se confruntă cu un stimulent intens și imediat pentru a-și extinde sistemele de AI cât mai repede posibil", se arată în raport. „Ei nu se confruntă cu un stimulent imediat pentru a investi în măsuri de siguranță sau securitate care nu aduc beneficii economice directe, chiar dacă unii o fac dintr-o preocupare reală".
Raportul Gladstone identifică hardware-ul - în special cipurile de calculator de înaltă performanță utilizate în prezent pentru a antrena sistemele de inteligență artificială - ca fiind un obstacol semnificativ în calea creșterii capacităților de inteligență artificială. Raportul susține că reglementarea proliferării acestui hardware ar putea fi „cea mai importantă cerință pentru a proteja siguranța și securitatea globală pe termen lung față de AI". Raportul afirmă că guvernul ar trebui să analizeze posibilitatea de a lega licențele de export de cipuri de prezența unor tehnologii pe cipuri care să permită monitorizarea utilizării cipurilor în programe mari de instruire a AI, ca modalitate de a aplica normele propuse împotriva instruirii sistemelor de AI mai mari decât GPT-4. Cu toate acestea, raportul notează, de asemenea, că orice intervenție va trebui să ia în considerare posibilitatea ca o reglementare excesivă să sprijine industriile străine de cipuri, erodând capacitatea SUA de a influența lanțul de aprovizionare.
Cei doi experți recunosc că recomandările lor vor părea prea zeloase pentru mulți din industria AI. Ei se așteaptă ca recomandarea de a scoate în afara legii accesul liber la informații despre algoritmii modelelor avansate de inteligență artificială să nu fie populară. „Sursa deschisă este, în general, un fenomen minunat și, în general, masiv pozitiv pentru lume", spune Edouard, directorul de tehnologie al Gladstone. „Este o recomandare extrem de dificilă de făcut și am petrecut mult timp căutând modalități de a evita sugerarea unor astfel de măsuri."
În ciuda provocărilor, autorii raportului spun că au fost influențați de cât de ușor și ieftin este în prezent pentru utilizatori să înlăture pragurile de siguranță de la un model de inteligență artificială dacă au acces la algoritmul acestuia. „Dacă proliferați un model cu sursă deschisă, chiar dacă pare sigur, ar putea fi periculos pe parcurs", spune Edouard, adăugând că decizia de a utiliza un model cu sursă deschisă este ireversibilă. „În acel moment, noroc, tot ce poți face este să accepți pagubele".
Înainte de a co-funda Gladstone împreună cu Beall, frații Harris au condus o companie de inteligență artificială care a trecut prin YCombinator, faimosul incubator din Silicon Valley, în perioada în care la conducere se afla Sam Altman, CEO-ul OpenAI. Cei doi invocă aceste acreditări ca dovadă că sunt de partea industriei, chiar dacă recomandările lor, dacă ar fi puse în aplicare, ar da-o peste cap.
Dar "traiectoria noastră implicită în acest moment", spune el, „pare să fie foarte bine orientată spre crearea unor sisteme suficient de puternice încât fie să poată fi transformate în arme catastrofale, fie să nu poată fi controlate". El adaugă: „Unul dintre cele mai rele scenarii este să avem parte de un eveniment catastrofal care să oprească complet cercetarea în domeniul inteligenței artificiale pentru toată lumea, iar noi să nu ajungem să culegem beneficiile incredibile ale acestei tehnologii."
-
Când ajunge Sfânta Lumină de la Ierusalim în București. Miracolul aprinderii spontane deasupra mormântului lui Iisus
Sfânta Lumină de la Ierusalim va fi adusă sâmbătă seara în București. Pe data de 4 mai, în jurul orei 19:00, va ajunge l ...
-
Escrocheria de la Digi RCS RDS reclamată de o clientă. Compania a fost amendată cu sute de mii de euro că a permis furtul de identitate
Agenția Spaniolă de Protecția Datelor a amendat compania DIGI cu 200.000 de euro pentru că a permis duplicarea cartelei ...
-
Clubul de Presă: La mulți ani! Azi ne aniversăm!
Astăzi, în Vinerea Mare, Clubul de Presă, ultima inițativă de mare amploare și de succes a jurnaliștilor și caselor de p ...
-
Părintele Pimen Vlad face dezvăluiri cutremurătoare: De unde vine, de fapt, Lumina Sfântă de la Ierusalim!
Părintele Pimen Vlad a dezvăluit care este adevărul despre Lumina Sfânta, de unde vine si de ce vine doar de Pastele Ort ...
-
Adu-ți atelierul la alt nivel - Cum alegi cele mai bune compresoare și dispozitive de ridicare
Cum bine știi în orice atelier auto modern, eficiența este cheia. Pentru a duce rapid la bun sfârșit diferite operațiuni ...
-
Vinerea Mare: ce e permis si ce e interzis sa faci azi
Creștinii țin post negru pentru iertarea păcatelor. Cu o zi înainte, în Joia Mare, se spovedesc. Tinerii din unele zone ...
-
Cum vrea Macron să dinamiteze alegerile din România, aruncându-ne în război cu Rusia
Preşedintele francez Emmanuel Macron declară joi în The Economist că o trimitere de trupe la sol în Ucraina nu este excl ...
-
Copiii, manipulați de marile companii prin trucuri „lipsite de etică" pentru a le face poftă de dulciuri
Companiile alimentare folosesc culori strălucitoare şi personaje din desene animate într-un efort „lipsit de etică" de a ...
-
Telegraph: AstraZeneca admite într-un proces că vaccinul anti-Covid poate provoca tromboze în cazuri "foarte rare"
Compania biofarmaceutică internațională AstraZeneca a recunoscut că unul dintre efectele secundare ale vaccinului său îm ...
-
Scenariul în care omenirea e subjugată de roboți nu e exclus: cele mai puternice țări propun o alianță în domeniul nuclear
Un înalt oficial american a cerut joi Chinei şi Rusiei să se alăture declaraţiilor Statelor Unite şi ale altor ţări că n ...
-
Jessie Baneș, artista și moderatoarea Radio Gold FM, a dat față în față cu ursul, la filmările videoclipului pentru noua sa piesă, "România Suverană"!
Jessie Baneș și-a anunțat fanii pe rețelele de socializare că, în prag de sărbătoare, chiar în Săptămâna Mare, perioadă ...
-
Big Pharma îşi face magazine online pentru a vinde medicamente direct către pacienţi. Mişcarea are ca scop eliminarea intermediarilor din lanţul medicamentelor
Pfizer dezvoltă o platformă online pentru ca pacienţii să poată comanda medicamente, inclusiv medicamentul Paxlovid împo ...
-
Descoperirea terifiantă făcută de arheologi în casa lui Hermann Goring, prietenul lui Adolf Hitler: „Am fost complet șocați"
Schelete înfiorătoare, cu membre lipsă, au fost găsite în „Bârlogul Lupului", unde a locuit cândva un apropiat de top al ...
-
O nouă anomalie meteo la Hong Kong - a fost lovit de aproape 10.000 de fulgere. Peste jumatate din ele intr-o singură oră
Hong Kong a fost lovit de aproape 10.000 de fulgere în noaptea de marți spre miercuri, potrivit observatorului meteorolo ...
-
Doi polițiști de frontieră au fost înjunghiați în Timiș, încercând să prindă migranți. Ministrul de Interne vrea să primim și mai mulți
Doi polițiști de frontieră din cadrul Serviciului Teritorial al Poliției de Frontieră Timiș au fost înjunghiați în timp ...
-
Un ospătar i-a servit unei femei detergent în loc de vin, la un bar din Italia: Clienta s-a ales cu arsuri grave în gât
O femeie a trăit un adevărat şoc la un bar din Milano, Italia când s-a trezit cu arsuri grave în gât după ce a consumat ...
-
Nicușor Dan e-n corzi: Diana Șoșoacă este candidat la Primăria Capitalei - a stabilit Biroul Electoral!
Biroul Electoral de Circumscripție nr. 42 - Municipiul București a hotărât în ultima zi să admită candidatura senatoarei ...
-
Europa plănuiește o nouă „umbrelă nucleară" cu 300 de rachete franceze răspândite pe continent pentru a se apăra de Rusia
Europa s-ar putea pregăti să creeze o umbrelă de protecție nucleară, formată din 300 de rachete balistice franceze, pent ...
-
A apărut oficial postul lui Iohannis: Viitoarea Comisie Europeană va avea un comisar pentru Apărare la un "mini-NATO"!
Dacă va rămâne preşedinta Comisiei Europene, Ursula von der Leyen, a declarat marţi, 30 aprilie, la Praga că, viitoarea ...
-
NATO se pregătește de invazia Rusiei: are loc cel mai mare exercițiu militar de aproape 40 de ani, cu 90.000 de oameni
România participă cu 2.300 de militari şi 220 de mijloace tehnice la un exerciţiu multinaţional organizat, în luna mai, ...
-
eRepatriere - Experiență și Profesionalism în Repatriere Decedați
eRepatriere este partenerul de încredere al familiilor care se confruntă cu pierderea unei persoane dragi, oferind servi ...
-
Povestea bărbatului care a câștigat 1,3 miliarde de dolari la loto, dar are o formă gravă de cancer
Câștigătorul american al unui premiu de 1,3 miliarde de dolari la loterie are cancer. Bărbatul de 46 de ani este bolnav ...
-
Suveica mafiei din agricultură: importăm porumb din Ungaria, mere din Polonia şi conserve de roşii din Turcia și dam totul la export
Mafia din Agricultura, patronata de baronii locali din sudul tarii, sufoca dezvoltarea tarii in domeniu si participa la ...
-
Liberation (Franța) analizează alegerile din România: S-a putea amplifica masiv curentul nationalism-suveranismului
În multe privințe, alegerile europene din 2024 din România reflectă ceea ce s-a întâmplat la ultimele alegeri legislativ ...
-
Neurochirurgul Leon Dănăilă: Șapte reguli de aur pentru a avea un creier sănătos la vârstă înaintată
Cunoscutul neurochirurg Leon Dănăilă dezvăluie cele șapte secrete ce trebuie respecate pentru a avea un creier sănătos ş ...
-
Regele Charles pare că e pe moarte: "Se simte rău! Starea sa de sănătate nu duce cu gândul la nimic bun!"
Nu este o atmosferă bună la Palatul Buckingham. În ciuda eforturilor regelui de a da dovadă de curaj și formă bună, zvon ...
-
Isteria climatică: ONU admite că fenomenele extreme actuale nu ies din tipare. Ce s-a întâmplat in 2023 a mai existat și în urmă cu 50 de ani
Încălzirea record cu care se confruntă lumea nu depăşeşte limitele modelelor climatice, chiar dacă "mai sunt unele lucru ...
-
Generația cancerului: tot mai mulți adolescenți și tineri se îmbolnăvesc, iar speranțele de vindecare sunt mai mici
Adolescenții și tinerii adulți din România, diagnosticați cu cancer, se confruntă cu o rată de supraviețuire mai mică de ...
-
A murit Cristian Topan, unul dintre cei mai cunoscuți caricaturiști din România
Cristian Topan (n. 19 octombrie 1963 - d. 27 aprilie 2024), unul dintre cei mai importanți caricaturiști români, s-a sti ...
-
Arma meteorologică? Peste 100 de tornade au fost înregistrate în mai multe state americane. Mai multe persoane și-au pierdut viața
Cel puţin cinci persoane au fost ucise de unele dintre numeroasele tornade care au măturat o parte din marele câmpii din ...