China și America trebuie să ia în serios riscurile generate de inteligența artificială

de Jake Sullivan,
Profesor practicant în arta guvernării și
ordinii mondiale în cadrul Harvard Kennedy School

În noiembrie 2024, președintele SUA, Joe Biden, și președintele chinez, Xi Jinping, au emis prima declarație comună substanțială privind riscurile pentru securitatea națională generate de inteligența artificială. Ei au remarcat în mod expres că atât Statele Unite, cât și China consideră necesar „să se mențină controlul uman asupra deciziei de a folosi arme nucleare”.

 

Aceasta poate părea o concesie diplomatică simplă, întrucât ar fi dificil să găsești o persoană rezonabilă dispusă să susțină cedarea controlului asupra armelor nucleare în beneficiul inteligenței artificiale. Cu toate acestea, în cazul guvernului chinez, nu există astfel de concesii simple, mai ales în chestiuni de o importanță majoră pentru securitate. China este în mod inerent sceptică față de propunerile SUA privind reducerea riscurilor, iar Rusia s-a opus unui limbaj similar în organisme multilaterale. Întrucât discuțiile bilaterale cu SUA privind inteligența artificială și securitatea nucleară ar fi putut produce divergențe între Rusia și China, avansul în această privință nu era deloc garantat.

În cele din urmă, a fost nevoie de mai mult de un an de negocieri pentru a se ajunge la acea declarație comună simplă. Deși pare simplu, rezultatul a fost semnificativ, deoarece a demonstrat că cele două superputeri în domeniul inteligenței artificiale pot implementa un management constructiv al riscurilor chiar și în contextul unei competiții acerbe pentru supremația în acest domeniu.

Mai mult, diplomați și experți din cele două țări ale noastre s-au întâlnit anterior, în 2024, la Geneva, pentru o sesiune amplă dedicată riscurilor asociate inteligenței artificiale. A fost prima întâlnire de acest fel și, deși nu a generat rezultate semnificative, însăși organizarea ei a reprezentat un pas important, iar ambele părți au reușit să identifice domenii critice de risc care necesitau o analiză suplimentară.

Acum, pe măsură ce ritmul dezvoltării și implementării inteligenței artificiale este accelerat, atât în plan civil, cât și militar, SUA și China trebuie să consolideze această bază printr-o diplomație susținută la nivel înalt privind riscurile aferente inteligenței artificiale, chiar dacă fiecare urmărește să preia conducerea în această cursă. Trebuie să facă acest lucru pentru că riscurile asociate inteligenței artificiale sunt reale și în continuă creștere.

De exemplu, pe măsură ce capabilitățile inteligenței artificiale avansează și se multiplică, actorii non-statali, precum organizațiile teroriste, ar putea să le exploateze pentru a amenința atât SUA, cât și China și restul lumii. Astfel de amenințări se pot manifesta în multiple forme, inclusiv atacuri cibernetice care paralizează infrastructura critică, arme biologice inovatoare care eludează detecția sau tratamentul, campanii de dezinformare ce destabilizează guverne și societăți, precum și drone letale asistate de inteligență artificială, capabile să lovească oriunde, aproape fără niciun avertisment.

Riscurile nu se opresc însă aici. Pe măsură ce forțele militare ale SUA și Chinei intensifică utilizarea inteligenței artificiale, scurtând ciclurile decizionale și modificând cadrele de descurajare, riscul ca sistemele bazate pe inteligență artificială să declanșeze accidental un conflict sau o escaladare catastrofică va crește. Pe măsură ce inteligența artificială devine tot mai centrală în sistemul bancar global, tranzacționarea asistată de inteligență artificială ar putea provoca o prăbușire a pieței în lipsa unor mecanisme de protecție adecvate. Privind mai departe în perspectivă, se poate concepe un sistem puternic de inteligență artificială, nealiniat (urmărind scopuri diferite de cele intenționate de creatorii săi), care să reprezinte o amenințare gravă pentru umanitate. Fiind singurele superputeri în domeniul inteligenței artificiale, SUA și China trebuie să se angajeze direct pentru a aborda atât aceste pericole, precum și altele.

Competiție gestionată

Angajamentul nu înseamnă că SUA și China vor înceta să concureze cu fermitate. Toamna aceasta, China a demonstrat cât de acerbă a devenit competiția prin impunerea unor noi controale stricte asupra exporturilor de pământuri rare, esențiale pentru producția de microcipuri și alte componente ale sistemelor de inteligență artificială.

În calitate de consilier pentru securitate națională în administrația Biden, am depus eforturi considerabile pentru a asigura menținerea avantajului SUA în domeniul inteligenței artificiale, astfel încât tehnologia să servească intereselor noastre și nu să fie împotriva noastră. Am anticipat intensificarea continuă a cursei pentru leadership în aplicațiile militare, de informații și comerciale, precum și pentru adoptarea modelelor și aplicațiilor americane și chineze de inteligență artificială de către țări din întreaga lume.

Dar tocmai din cauza acestei competiții acerbe, diplomația rămâne esențială, chiar și în această perioadă de tensiuni sporite. Ar fi profund iresponsabil ca SUA și China să avanseze în forță fără a purta un dialog asupra riscurilor sau fără a discuta despre oportunitățile imense oferite de inteligența artificială pentru a aborda provocările transnaționale, de la criza climatică la sănătatea publică.

Pentru a fi siguri, lideri de opinie din ambele țări au participat la eforturi diplomatice de tip  Track 2,
discuții care au loc în afara guvernelor, implicând de regulă universități, lideri de afaceri și organizații ale societății civile. Astfel de discuții sunt valoroase și trebuie să continue. În cele din urmă, nu există, însă, un substitut pentru angajamentul direct între guverne, chiar dacă acesta este la început destul de modest.

Nici angajamentul nu poate fi amânat, având în vedere ritmul amețitor al progreselor tehnologice și dificultățile anticipate în obținerea unor avansuri diplomatice pe măsura importanței momentului. Gestionarea riscurilor asociate inteligenței artificiale este un teritoriu necunoscut, astfel încât progresul nu va fi nici rapid, nici facil. SUA și China trebuie să înceapă acum.

Mulți comentatori au evidențiat asemănări cu controlul armamentului nuclear așa cum s-a dezvoltat acesta de-a lungul deceniilor, iar această analogie are un anumit temei. Superputerile poartă responsabilitatea gestionării riscurilor asociate tehnologiilor puternice, iar noi am îndeplinit cu succes această responsabilitate în trecut prin acorduri de control al armamentului, inclusiv în perioada de apogeu a Războiului Rece. Totuși, inteligența artificială prezintă și provocări diferite, necesitând abordări mai inovatoare decât controlul armamentului.

Există mai multe motive pentru aceasta. În primul rând, verificarea este mai complicată. Numărarea rachetelor și a focoaselor, cu semnăturile lor detectabile, este un lucru; numărarea algoritmilor, cu atât mai mult identificarea tuturor capabilităților și aplicațiilor unui anumit algoritm, este cu totul altceva.

În al doilea rând, provocarea utilizării duale se manifestă diferit în cazul inteligenței artificiale. Da, divizarea atomului are atât utilizări civile, cât și militare, însă există o distincție clară între energia nucleară pașnică și arme nucleare, iar Agenția Internațională pentru Energie Atomică are o vastă experiență în supravegherea acestei delimitări. În schimb, același model de inteligență artificială care poate sprijini cercetarea științifică și genera creștere economică poate, de asemenea, să producă efecte letale înfricoșătoare. Aceasta face dinamica competitivă dintre SUA și China mult mai dificil de gestionat, iar granița dintre oportunitate și risc mult mai greu de distins.

În al treilea rând, discuțiile privind controlul armamentului s-au concentrat în principal pe state care amenință alte state, în timp ce riscurile inteligenței artificiale implică amenințări atât între state, cât și nonstatale, precum și riscuri asociate nealinierii inteligenței artificiale. Aceasta aduce provocări și oportunități diferite pentru diplomație.

În al patrulea rând, cel puțin în SUA, dezvoltarea inteligenței artificiale nu este condusă de guvern, ci de sectorul privat și nu de o singură companie, ci de numeroase companii aflate în competiție. Aceasta înseamnă că un spectru larg de actori trebuie implicat în discuțiile care vizează reducerea riscurilor pe care le prezintă această tehnologie.

În cele din urmă, există un vast spectru de opinii cu privire la viteza și amploarea progresului capacităților inteligenței artificiale. Unii o percep ca pe o tehnologie „normală”, a cărei implementare completă va dura decenii, în timp ce alții susțin că o explozie de superinteligență este la doar câțiva ani distanță. În cazul armelor nucleare, puteai avea o detonare puțin mai mare sau mai mică sau un vehicul de lansare mai rapid ori mai manevrabil, însă, în esență, știai cu ce ai de-a face. Evoluția și impactul capacităților inteligenței artificiale sunt mult mai puțin clare.

Când am fost consilier pentru securitate națională, am lucrat pentru a mă asigura că guvernul SUA era pregătit pentru fiecare scenariu din spectrul incertitudinii. A face acest lucru necesită un nivel suplimentar de flexibilitate, subtilitate și stabilitate. Cadrul de control al armamentului nuclear nu s-a construit peste noapte. Au fost necesari ani pentru a elabora controalele relevante privind exporturile, schemele de testare, protocoalele de verificare și măsurile de siguranță și decenii de diplomație pentru a le menține. În cazul inteligenței artificiale, suntem în fazele incipiente ale unei inițiative similare ca ambiție, dar diferită prin substanță și complexitate. Acest fapt face ca demararea imediată a eforturilor de diminuare a riscurilor să fie mult mai importantă.

Jake Sullivan, consilier pentru securitate națională al SUA (2021–2025) în timpul mandatului președintelui Joe Biden, este profesor practicant în arta guvernării și ordinii mondiale în cadrul Harvard Kennedy School.

©Copyright Project Syndicate 2026

Cele mai citite din ultimele 7 zile

Trump și sfârșitul hegemoniei americane

de Joseph E. Stiglitz, Laureat al Premiului Nobel pentru Economie A...

Scrisoare Deschisă adresată Guvernului României

În atenția: Prim-ministrului României, Ilie Bolojan Subiect: AEI solicită realizarea...

Populism pe prețul la motorină – rețeta sigură pentru un nou dezastru în România

Creșterea prețului la motorină este genul de șoc economic...

Încrederea: ultimul activ de siguranță într-o lume în derivă

În economie, încrederea se construiește în decenii și se...

Cele mai recente

Încrederea, capitalul invizibil al economiei. România în 2026

de Valeriu IVAN, analist CAPOS Încrederea nu apare în bilanțuri, dar...

„Tratamentul Bolojan”

de Daniel Apostol, analist economic și expert în politici publice România...

Trump anulează statul de drept și democrația din SUA

de Aziz Huq, Profesor de drept la Universitatea din Chicago Primul...

Criptomonedele, o oportunitate sau o amenințare?

de Jean Tirole, Laureat al Premiului Nobel pentru Economie Fascinația pentru...

Va fi lăsat Sistemul Rezervelor Federale să-și îndeplinească rolul?

de Gary Gensler, Profesor practicant în economie globală, management și...

Jucând la ruletă viitorul dolarului

de Carmen M. Reinhart Profesor pentru sistemul financiar internațional în cadrul...

Noul început al democrației în America Latină

de Enrique Krauze, Istoric, eseist, editor și redactor al publicației...

O nouă eră a proliferării nucleare?

de Mohamed ElBaradei, Laureat al Premiului Nobel pentru Pace Amenințarea reprezentată...

Articole relevante

Categorii