Discursul susținut la București de Hardy F. Schloer pe tema provocărilor reprezentate de Inteligența Artificială

Postat la: 12.06.2024 | Scris de: ZIUA NEWS

Discursul susținut la București de Hardy F. Schloer pe tema provocărilor reprezentate de Inteligența Artificială

Cuvânt de deschidere a Conferinței Interdisciplinare: Provocarea Inteligenței Artificiale, București, 11 iunie 2024 - Hardy F. Schloer

Doamnelor și domnilor, bună dimineața și bun venit la conferința noastră despre provocările inteligenței artificiale. Ca o eficientă introducere a acestei conferințe, vă rog să-mi permiteți să încep cu un scurt moment de introspecție. Astfel, în timpul prezentării mele, veți începe să înțelegeți de ce inteligența artificială devine o decizie de viață existențială ce va afecta fiecare aspect al lumii noastre și viitorul său potențial. Din acest motiv, ar trebui mai întâi să obținem o un nivel de înțelegere cât mai profundă a existenței noastre actuale pe această planetă, înainte de a începe să definim problemele sau provocările existențiale ale inteligenței artificiale.

După cum știm cu toții, planeta noastră are aproximativ 4,6 miliarde de ani. Să împărțim asta în 46 de ani pentru un exercițiu comparativ! Prin această comparație, Umanitatea există de mai puțin de 38 de minute, iar epoca industrializării a început cu aproximativ 3 secunde în urmă. În aceste „3" foarte scurte secunde, Umanitatea a declanșat cu succes o a șasea extincție în masă a vieții pe planeta noastră, inclusiv a speciei noastre. Din păcate, acesta este până acum un fapt științific verificabil și stabilit. Chiar și cei care neagă schimbările climatice nu mai pot argumenta serios împotriva acestui lucru. Dacă nu ne schimbăm drastic comportamentul în următorii 8 până la 12 ani, această planetă va fi în cele din urmă nelocuibilă pentru majoritatea vieții biologice, inclusiv pentru a noastră. Toți oamenii de știință și experții de frunte în domeniul climei au convenit acum că această schimbare este pe cale să se materializeze în doar câteva decenii, dacă nu schimbăm modul în care ne gestionăm existența în prezent. De data aceasta, nu este un super-vulcan sau asteroidul care a ucis dinozaurii acum 65 de milioane de ani. Nu, de data aceasta, sunt pur și simplu alegerile pe care le facem în mod colectiv ca umanitate, în special modul în care am folosit tehnologia încă de la începutul industrializării. Omenirea nu s-a schimbat odată cu epoca industrializării; oamenii s-au comportat întotdeauna mai mult sau mai puțin la fel. Cu toate acestea, omenirea a accelerat tendințele sale comportamentale naturale, susținute de tehnologia emergentă și din ce în ce mai mult și de inteligența artificială, care tinde să devină un amplificator puternic al lumii noastre tehnologizate.

Oamenii, în ansamblu, încă de la începuturile lor timpurii, sunt extrem de inovatori, aventuroși, curioși și prolifici. Din păcate, sunt și brutali, egoiști, iresponsabili, competitivi, nesăbuiți, miopi și obsedați de dominație, putere și lăcomie. Oamenii sunt dispuși să moară pentru putere, control, dominație, posesiuni. Ei acordă prioritate resurselor, banilor, geografiei, ideologiei și, din păcate, chiar și propriilor convingeri față de viața însăși. Numai în acest fel este explicabil că un bărbat, la cererea conducătorilor săi, va îmbrăca uniforma, va ridica o armă și va merge pe un câmp de luptă pentru a împușca un alt bărbat pe care nu l-a mai văzut sau întâlnit până atunci și cu care el poate că ar fi preferat mai degrabă să bea o bere într-un pub local sau să mergă la pescuit împreună. Epoca industrializării nu a inițiat această tendință, dar a contribuit la aducerea ei la niveluri de tehnologie, viteză, scară și sofisticare care au declanșat o accelerare exponențială spre o criză existențială majoră pentru umanitate.

Vă rog să înțelegeți că nu mă impun aici ca judecător al moralității și eticii umane. Nu sunt motivat politic, nu proclam vreun interes ideologic într-un fel sau altul, pur și simplu adopt punctul de vedere al unui extraterestru, privind din afara acestei planete, observându-i megatendințele în desfășurare, accelerarea modelelor de comportament și raportarea la ceea ce putem detecta, măsura și extrapola din datele aflate în fața noastră. Aceasta nu este o chestiune de opinie, ci o evaluare a unor fapte ușor de verificat. Este reducerea științifică a tendințelor comportamentale, mari și mici. Aici, trebuie să începem să înțelegem problema mai mare pe care provocările viitoare ale inteligenței artificiale o vor prezenta omenirii. Aici totul devine relevant! Iată ce trebuie să îmbrățișăm și să înțelegem în viitor: cu toate adaptările sale tehnologice, starea colectivă a inteligenței artificiale este o reflectare fidelă a mentalității generalizate și a modelelor comportamentale ale umanității.

Inteligența artificială, sau IA pe scurt, face tot ce am spus până acum mai puternic, mai eficient, mai scalabil, mai exponențial, mai instantaneu și funcționează cu mult peste viteza cunoașterii umane. Dacă omenirea se află pe o traiectorie de auto-extincție, atunci IA ne va ajuta doar să ajungem acolo mai repede, de fapt, exponențial mai repede, cu excepția cazului în care ne reorientăm natura și comportamentul general și pe cel al IA. Acum, depinde de noi să alegem dacă lăsăm această tendință să-și termine finalul natural și, prin urmare, și sfârșitul nostru, sau dacă suntem dispuși să recunoaștem această tendință dăunătoare și, în sfârșit, să facem ceva pentru a-i schimba traiectoria.

Dacă stați în mașină și sunteți pe cale să loviți un copac, veți privi și nu veți face nimic? Sunteți dispus să întoarceți volanul pentru a evita coliziunea?

Cu toate acestea, iată veștile bune: Dacă tehnologia bazată pe inteligență artificială poate ajuta la încheierea exponențială a existenței noastre, atunci poate face și invers. IA ne poate salva și o poate face rapid. Cu toate acestea, trebuie să întoarcem proverbialul volan pentru a face această schimbare. Inteligența artificială, ca și toate celelalte tehnologii legate de aceasta pot fi drumul nostru către dispariție, așa cum funcționează în prezent. Este adevărat, dar ne pot și salva dacă facem corecțiile și modificările corecte! Momentul să facem asta este acum! Nu mai târziu! Suntem aici pentru a vorbi despre Inteligența Artificială. Prin urmare, să ne concentrăm acum asupra provocărilor tehnice monumentale cu care ne confruntăm cu această tehnologie, dar, totuși, să rămânem în contextul observațiilor mele introductive. Dacă tehnologii IA reușesc acest lucru, inteligența artificială ar putea deveni realizarea următoarei noastre utopii.

IA ar putea gestiona uimitor fiecare fațetă a umanității și numai filmele utopice științifico-fantastice ne-ar putea oferi o previzualizare adecvată a acestei transformări care ne așteaptă potențial. Nu există deja o limită a ceea ce face IA pentru noi în multe aspecte ale vieții în acest moment. De exemplu, în producție, robotică, comerț, asistență medicală, toate formele de cercetare, educație, agricultură, transport, administrație organizațională, securitate, guvernare și da, din păcate, și în războiul global, fizic și cibernetic, asta pentru a numi doar câteva exemple. Cu toate acestea, majoritatea exemplelor de IA la care tocmai am făcut referire sunt funcții robotice tranzacționale și liniare. Aceste procese IA pot fi gestionate, constrânse și limitate în efectele și consecințele potențial neintenționate. Cu toate acestea, adaptarea foarte largă a IA evoluează acum foarte rapid în toate domeniile vieții noastre. Forme mult mai puternice de IA sunt folosite din ce în ce mai mult peste tot, nu pentru a alimenta roboți sau procese robotice, ci pentru a comunica și a face alegeri complexe și decizii ample și consecințe pentru societate în fiecare domeniu imaginabil al vieții noastre, dintre care majoritatea sunt în afara înțelegerii și înțelegerii proprii creatori. Proverbialul duh a ieșit din sticlă!

Această tendință abia a început și se accelerează cu o viteză uluitoare. Pentru a ne deplasa în siguranță în acest teritoriu neexplorat al unei lumi complet gestionate de IA, acum trebuie să depășim multe probleme sistemice semnificative și preocupări etice legate de dezvoltarea și implementarea IA. Iar, prima și cea mai complexă problemă sistemică a IA este accea că este un peisaj profund fragmentat alcătuit din milioane de tehnologii individuale care funcționează complet independent. Niciuna dintre aceste soluții IA nu vorbește cu celelalte și nici una nu îi ajută pe alții să evolueze și să devină mai eficienți. Multe soluții de IA se contrazic în rezultate, funcții și scop. Vă puteți întreba, de ce aceasta este o problemă importantă de rezolvat?

Răspunsul este simplu: Să presupunem că încredințăm lumea noastră de IA pentru un management complet. În acest caz, IA trebuie să înțeleagă ecologia interconectivă cauza-efect a lumii noastre și toate acțiunile, contra-acțiunile și consecințele ei în toate sistemice dinamicele ale acestei planete. Prin urmare, a doua problemă sistemică este că această industrie încă nu s-a adaptat la un model de date generalizat la nivel de industrie și la un standard de tranzacții de informații. Acest lucru ar permite diferitelor soluții de IA din diferite domenii să comunice, să învețe unele de la altele și să colaboreze sub un standard comun și o orientare sistemică. Acest lucru ar aduce o coerență generală în gestionarea obiectivelor în cadrul utilizării pe scară largă a IA. Este imperativ ca industria IA să facă acest lucru corect fără nicio întârziere suplimentară!

A treia problemă sistemică este că infrastructura de procesare de bază în IA este implementată în primul rând ca un sistem de extracție și corelare a modelelor bazat pe rețele neuronale, în principal atunci când este utilizat pentru modele de limbaj mari, cum ar fi chatbot-uri și sisteme de interogare a informațiilor. Oricât de impresionante ar părea aceste aplicații la început, ele sunt, în cel mai bun caz, o metodologie de selecție și corelare a informațiilor bazată pe „Black Box" - cutia neagră, dar acest lucru are foarte puțin de-a face cu inteligența. Nimic nou și inteligent nu este creat și nimic nu evoluează inteligent.

A patra problemă sistemică este că modelele actuale de inteligență artificială bazate pe rețele neuronale le lipsește transparența din cauza acestor așa-numite efecte „Black Box" - cutie neagră. Nimeni nu poate spune ce face IA intern și nimeni nu poate explica de ce sau cum IA a produs rezultatele pe care le-a dat. Acesta este un risc inacceptabil, mergând mai departe cu IA. La nivel uman, trebuie să înțelegem pe deplin cum a face și cum susține IA deciziile specifice și ce anume informații a utilizat pentru a le obţine. Actuala rețea neuronală generativă a modelelor de IA nu acceptă această însă posibilitate.

A cincea problemă sistemică este aceea că, din cauza dificultăţii de înțelegere a modului în care tehnologia IA bazată pe rețele neuronale folosește informația la nivel intern, părtinirea operatorului este una sistemică, automat integrată în proces, pentru a împinge rezultatele în ferestrele țintă acceptabile de operator. În acest fel, rețelele neuronale extrag doar o gamă predefinită de răspunsuri din seturi vaste de date, care pot fi pe placul utilizatorului de sistem sau operatorului, dar este posibil să nu reflecte deloc rezultatele reale. Există și alte probleme și provocări cu acest mod de abordare a inteligenței artificiale, care trebuie în egală măsură să fie rezolvate înainte ca noi să putem transfera managementul societal către mașini: de exemplu, părtinire și corectitudine - sistemele de inteligență artificială pot moșteni și perpetua prejudecăți în culegerea de date folosite de programele de IA bazate pe rețele neuronale. Acest lucru poate duce la rezultate inechitabile sau profund discriminatorii, în special în angajări organizaționale, împrumuturi financiare, drept, aplicarea legii sau cererile în justiția penală. Abordarea nonpărtinitoare și asigurarea echității în sistemele de IA este crucială pentru construirea încrederii și evitarea vătămării societății.

Apoi există problema uriașă a consumului de energie în creștere: Modelele de IA generativă actuale folosesc în exces cantități enorme de date, procesându-le cu motoare de rețea neuronală bazate pe forța „brută" a mii de procesare computerizate foarte costisitoare și extrem de energofage, ceea ce are ca rezultat cantități masive de energie utilizate pentru randamente relativ mici ale rezultatelor inteligente prin comparație.

Mai multe studii realizate de colegi, arată în mod convingător că utilizarea pe scară largă a inteligenței artificiale bazate pe rețele neuronale va genera un consum de energie electrică atât de mare, încât, până-n 2028, va depăși orice altă categorie de consum. Este foarte clar că această tendință nu este una durabilă, sutenabilă, mai ales în actualul climat energetic, generat de schimbările climatice. Problemele derivă din faptul că interacţiunea dintre programul de prelucrare a datelor și cel de IA este puternic înclinată către procesarea rezultatelor programului, mai degrabă decât către prelucrarea datelor inițiale, de bază, folosite de program pentru a le face „inteligente" de la sine, înainte de a fi utilizat de IA. În acest fel, sistemul de IA ar putea deja să detecteze și să selecteze automat doar datele cu adevărat relevante pentru prelucrare, reducând substanțial energia și timpul de procesare. Societatea mai are în prezent doar 2-3 ani pentru a rezolva acest lucru, altfel integrarea IA în fiecare aspect al vieții va genera un consum uriaș de energie în exces, ceea ce va afecta grav societatea.

Formele actuale emergente de IA ridică, de asemenea, preocupări majore privind confidențialitatea. Sistemele de IA se bazează adesea pe cantități mari de date personale pentru a fi instruite să funcționeze eficient. Acest lucru ridică preocupări majore cu privire la confidențialitate, în special în ceea ce privește aplicațiile de IA în domenii precum supravegherea, asistența medical sau publicitatea personalizată. Protejarea vieții private a persoanelor, valorificând în același timp puterea IA este o provocare foarte importantă. În acest context, trebuie să ne referim și la utilizarea etică a inteligenței artificiale. IA ridică întrebări etice extrem de complexe, cum ar fi autonomia, responsabilitatea sau impactul asupra ocupării forței de muncă. De exemplu, implementarea vehiculelor autonome ridică întrebări despre cine este responsabil în caz de accidente. În mod similar, automatizarea bazată pe inteligență artificială poate perturba piețele muncii și exacerba inegalitățile. În acest context, trebuie să existe un echilibru între beneficiile aduse societății și consecințe negative neintenționate. Cadrele și reglementările etice sunt necesare urgent pentru a ghida dezvoltarea și implementarea responsabilă a tehnologiilor IA. Există, de asemenea, multe riscuri de securitate bazate pe inteligență artificială. Din păcate, sistemele de IA sunt vulnerabile la diferite forme de atac, inclusiv atacuri adverse, virusare sau corupere a datelor. Actorii rău intenționați manipulează adesea sistemele de IA pentru a genera rezultate incorecte sau pentru a compromite integritatea acestora. Acest lucru este deosebit de periculos atunci când hackerii care obțin acces la IA gestionează sisteme tehnice vitale, cum ar fi centralele nucleare, echipamentele militare sau echipamentele de comunicare critice. Asigurarea securității sistemelor de IA este acum mai importantă ca niciodată, pentru prevenirea exploatării rău intenționate și menținerea încrederii societății în tehnologile IA.

În sfârșit, există și probleme politice care trebuie luate în considerare. Abordarea acestor provocări necesită o colaborare deplină între cercetători, factori de decizie, lideri din industrie și toate părțile interesate să elaboreze linii directoare etice, cadre de reglementare și, cel mai important, soluții tehnic acceptabile care să promoveze utilizarea responsabilă și benefică a IA pe o scară societală globală. În plus, sunt necesare cercetări și inovații continue, avansarea domeniului în același timp atenuând riscurile potențiale și asigurând că tehnologiile de IA servesc binelui comun. Aceste probleme trebuie rezolvate urgent. Mai important, părțile interesate trebuie să realizeze acest lucru în mod colectiv, colaborând la stabilirea unui cadru etic de reglementare pentru operatorii de IA din toate domeniile, care să fie unul eficient și benefic pentru toți membrii societatii.

Să presupunem că vrem să trecem la un sistem durabil, transparent, sigur și înt-o era globală reciproc avantajoasă a IA. În acest caz, trebuie să rezolvăm neaparat aceste probleme sistemice, altfel ne paște un accident extrem de costisitor, o adevărată catastrofă globală a unei societății gestionate de o inteligență artificială disfuncțională sau poate chiar mai rău, ceea ce nu ne va putea permite accesul la beneficiile extraordinare pe care IA le-ar putea oferi tuturor.

Să vorbim, așadar, acum, despre care trebuie să fie soluțiile! Pentru a remedia aceste probleme sistemice, trebuie să adoptăm mai multe inovaţii tehnologice şi strategii sistemice. În primul rând, trebuie să începem urgent să folosim o soluție adaptată și unanim acceptată, un model de proces de IA complet generalizat, interconectabil infrastructurii pe care o avem și pe care toată lumea să-l folosească la nivel global ca „Model standard de IA". Am făcut-o, în trecut, pentru căi ferate, mașini, aviațiesau Internet. O putem face cu ușurință și pentru IA. Această infrastructură globală de inteligență artificială trebuie să se bazeze pe modele de inteligență și informații cognitive, similare modului în care funcționează creierul nostru. Aceasta nu este utopie, putem face asta astăzi.

Noua și emergenta tehnologie QRI: Inteligența Cuantică a Relațiilor, este un bun exemplu despre cum putem atinge Utopia deja acum. Nu trebuie să ne bazăm doar pe o simplă forță brută bazată pe rețeaua neuronală a programelor de procesare, care au puțin de-a face cu modul în care creierul uman lucrează și gândește. Trebuie să creăm un model global de inteligență al IA. Acest proces trebuie să fie complet transparent și fără cutii neagre netransparente. În al doilea rând, și așa cum am spus mai devreme, trebuie să facem datele în sine inteligente chiar de la început, înainte de orice proces analitic de IA. Acest lucru trebuie făcut atunci când datele sunt încorporate în baza de date de IA, sistemele trebuie să schimbe cea mai mare parte a „greilor" procesului de analiză a datelor în sine și modul în care acestea se integrează asociativ cu natura fiecărei interogări și să nu se bazeze numai pe cele scumpe și procesarea rețelei neuronale excesiv consumatoare de energie a unor astfel de interogări. Datele inteligente și auto-asociate sunt răspunsul. Acest proces de identificare și asociere a datelor trebuie să fie generalizat, nesupravegheat și, prin urmare, fără posibilitatea de părtinire a operatorului.

În al treilea rând, și pornind de la ultimul meu punct, trebuie să tratăm informațiile și prelucrarea lor aferentă de IA, ca o abordare globală şi generalizată, agnostică și independentă de soluție. Astfel, putem elimina numeroasele puncte moarte din mediile analitice curente. Generalizarea și interoperabilitatea procesării IA în întreagul peisaj informaţional sunt schimbări urgente care trebuie să fie implementate acum. Acest lucru nu poate aștepta!

În al patrulea rând, trebuie să începem în sfârșit să facem schimb de riscuri emergente, informații și cunoștințe între domeniile IA, prin partajarea acestor informații de risc între toate sistemele de IA la nivel global, permițând tuturor sistemelor să facă acest lucru, pentru a învața să împărtășească simultan informații importante despre pericolele emergente identificate și potențialele amenințări asimetrice. Trebuie să facem acest lucru pentru toate tipurile de domenii, cum ar fi securitatea globală, mediu, finanțe, asistență medicală, agricultură, producție, logistică, transport și multe altele.

Evident, acest proces necesită și transparența IA, astfel încât rezultatele să poată fi partajate în siguranță. Această schimbare va face IA infinit mai sigură, mai eficientă și mai acceptabilă pentru societate și pentru fiecare operator de sistem de IA. Acest lucru, desigur, necesită ca societățile să decidă în cele din urmă să nu lupte una cu alta, să lucreze împreună, cel puțin pentru a face lumea mai sigură și mai interoperabilă cu IA.

În al cincilea rând, trebuie să facem pe deplin analizele IA și rezultatele interogărilor transparente pentru utilizatori și consumatori în ceea ce privește răspunsurile rezultate, decizile și consecințele aferente din toate domeniile conexe pe care le ating. Când primim sfaturi sau informații de la un om, de obicei putem cere explicații: „De ce crezi asta?" sau „Ce dovadă aveți?" Trebuie să punem aceleași întrebări sistemelor de IA. Nimic mai puțin este acceptabil! Aceste sisteme de IA trebuie configurate în așa fel încât să poată da răspunsuri corecte de fiecare dată când le întrebăm ceva.

În al șaselea rând, trebuie să identificăm și să clasificăm complet datele primite automatizat și în timp real, după sursă, credibilitate, integritate a faptelor, asociații, trăsături social-centrate și orice alte dimensiuni calitative pe care le putem detecta, înregistra și evalua. Rezultatele pe care le dezvoltăm prin utilizarea AI nu trebuie să fie doar fapte liniare simple. Ele trebuie înțelese în orice context cerut sau definit de către utilizatorul unor astfel de sisteme. În această eră a inteligenței mașinilor, informațiile bazate pe inteligența artificială a sistemelor trebuie să livreze automat la fiecare utilizare fapte, rezultate și analize cu verificarea probabilistică a faptelor, transparența sursei și evaluarea calității sursei, inclusiv toate proprietățile contextuale și consecințele lor potențial proiective, cum ar fi impacturile sociale actuale și viitoare, societale și riscurile specifice cazului, oportunitățile economice și consecințle asupra mediului. În acest fel, putem alege și noi, pe baza acestor dimensiuni calitative, ce date au calitatea adecvată și ce date se califică pentru a fi expuse la prelucrare dintre interogările noastre de IA de fiecare dată când folosim sistemul. În unele cazuri, utilizarea datelor cu integritate și credibilitate, chiar dacă validarea lor este una foarte scăzută, poate fi, de asemenea, utilă, mai ales atunci când vrem să înțelegem comportamentul defectuos și opiniile corupte care apar în interiorul societîții.

Prin urmare, toate datele sunt utile, dar ar trebui să înțelegem cum seturi calitativ diferite de informații sau surse produc rezultate diferite și de ce. Acest lucru va face înțelegerea faptelor și rezultatelor generate de IA transparentă și mult mai valoroasă. Implementarea tuturor acestor soluții și remedieri la problemele menționate mai sus este posibilă astăzi cu codificarea deja existentă, tehnologiile de rețea și hardware. Trebuie, totuși, să ne unim la nivel global, așa cum am făcut în ultima vreme cu problemele schimbărilor climatice și să fim de acord să rezolvăm problemele împreună la nivel societal. Trebuie să trecem în IA de la modele logice liniare simple la cele cognitive bazate pe modele de relații cuantice. Această acțiune va preveni ca IA să devină în curând o calamitate pe mai multe niveluri.

În cele din urmă, aș dori să mai ating două puncte critice. În primul rând, trebuie să începem să transformăm informațiile în forme de educație demne de încredere. De fiecare dată când folosim IA într-o interogare analitică, trebuie să fim informați de IA despre motivul pentru care ne oferă aceste anume rezultate. În acest fel, societatea globală va deveni în viitor una mai inteligentă, nu mai proastă, așa cum este, din păcate, în prezent! Aceleași caracteristici trebuie să fie prezente în toate reclamele automate și sisteme organizaționale de sprijinire a deciziilor. Dacă omenirea vrea să progreseze și să trăiască într-o lume în siguranță cu IA, nu ar trebui să acceptăm nimic mai puțin de la mașina inteligentă. Sistemele de IA ar trebui să educe umanitatea și mașinile, care sunt împlicate în acest proces global. Cunoștințele, faptele, analizele sau rezultatele bazate pe încredere și transparență devin acum o marfă indispensabilă pentru umanitate, la fel de esențială precum aerul curat, apa sau biodiversitatea. Atâta timp cât folosim cunoștințe și informații analitice bazate pe inteligență artificială ca avantaj competitiv în cadrul societății, riscăm să dăm naștere la critici și greșeli făcute de unele grupuri sau indivizi, care, în final, vor afecta negativ pe toată lumea. Amintiți-vă că omenirea trăiește într-un sistem complet interconectat. Nimic nu este fără bucle de feedback și aferentele consecințe ale acestora. Acest lucru devine extrem de important, având în vedere că IA realizează o tranziție tehnologică mult mai profundă în prezent, decât cea de la cal la mașină acum 130 de ani.

În al doilea și ultim rând, trebuie să fim astăzi dispuși să lucrăm ca o societate umană globală spre Orizontul Utopiei. Întradevăr, unele dintre concluziile pe care le-am prezentat în discursul meu astăzi, aici, pot fi considerate o Utopie, iar asta poate fi perfect rezonabil. Cu toate acestea, trebuie să înțelegem că Utopia este pur și simplu următorul pas pe care îl avem de realizat. Este viziunea noastră asupra viitorului. Când mergeam pe jos, roțile și trăsurile erau o Utopie. Când mergeam în vagoane, avioanele erau de neconceput, o Utopie. Nu trebuie să uităm că Utopia este următoarea viziune asupra viitorului, următorul pas pentru a face viața pe această planetă mai bună, mai durabilă, mai sigură, mai pașnică, mai prosperă, o viață ce merită cu adevărat trăită. Iar aceasta include tehnologia IA. Trebuie să trăim constant la marginea orizontului evenimentelor Utopiei. Acesta este felul în care putem evolua într-un mod pozitiv către viitorul preferat.

În încheiere, îmi place să adaug asta: tehnologiile bazate pe inteligența artificială vor conduce această planetă, cu siguranță, într-un fel sau altul, în următorul deceniu. Acesta este un fapt de o certitudine ireversibilă! Toată lumea ar trebui să înceapă să înțeleagă asta cât mai de repede! Acest lucru necesită o pregătire majoră și o regândire nu numai a IA, ci și a modului în care noi, ca societate umană, interacționăm și gestionăm această planetă. Amintiți-vă ce am spus la început. Inteligența noastră Artificială este o reflectare sau o oglindă a condițiilor noastre societale. Aceasta include, de asemenea, orice națiune aflată în conflict cu alte națiuni de pe planetă și orice ciocniri între ideologii, credințe sau concepte despre cum ar trebui să fie planeta gestionată funcțional. Când praful câmpurilor de luptă fizice sau virtuale se așterne în sfârțit, cei implicați în aceste conflicte își vor fi dorit folosirea în colaborare, înțeleaptă și productivă a timpului, pentru rezolvarea amenințărilor existențiale pe care le avem cu toții pe această planetă și nu irosirea lui în tot soiul de conflicte.

Ca societate umană globală, trebuie să ne schimbăm drastic comportamentul, modul de abordare a securității, a finanțelor, afacerilor și a gândirii geopolitice, atât naționale cât și globale. Puterea Inteligenței Artificiale este factorul critic de schimbare și motivul existențial pentru care nu mai putem lucra unul împotriva celuilalt. Alegerea IA nu este într-adevăr o alegere. Este o necesitate clar definită. Trebuie să colaborăm, să cooperăm, să luăm decizii în consens și să adoptăm modele de comportament simbiotic pentru a supraviețui.

Tipul potrivit de IA este conducta, podul, vasul și facilitatorul necesar pentru a ajunge acolo. Omenirea poate alege fie să trăiască și să prospere împreună, fie să dispară. Alegerea este a noastră și trebuie să o facem, acum, împreună, ca o specie umană interdependentă.

Vă mulțumesc mult pentru atenție!

loading...
PUTETI CITI SI...