Cofondatorul Ethereum a transmis un mesaj direct companiei de inteligență artificială: „Nu cedați.” Între timp, un scenariu distopic publicat de Citrini Research a stârnit panică pe bursele americane, iar tensiunile dintre Anthropic și administrația Trump au atins un punct critic.
Un ultimatum care rescrie regulile jocului
Săptămâna aceasta, relația dintre una dintre cele mai valoroase companii de inteligență artificială din lume și guvernul Statelor Unite a luat o turnură pe care puțini ar fi anticipat-o acum un an.
Pete Hegseth, secretarul american al apărării, i-a trasat lui Dario Amodei, directorul general al Anthropic, un termen limită sec: vineri, ora 17:01, ora estică. Fie compania acceptă să ofere Pentagonului acces nerestricționat la modelele sale de inteligență artificială, fie suportă consecințele.
Întâlnirea dintre cei doi a avut loc marți dimineața, la sediul Departamentului Apărării. Potrivit surselor citate de Axios, atmosfera nu a fost una de curtenie diplomatică. Un oficial de rang înalt din Pentagon a descris-o fără menajamente, ca pe una din acele situații în care trebuie să iei o decizie clară, fără loc de echivoc.
De cealaltă parte, Anthropic a continuat să vorbească despre „conversații purtate cu bună credință”, o formulare care, în contextul dat, suna mai degrabă ca un exercițiu de răbdare decât ca semnalul unui acord iminent.
Miza este enormă. Anthropic, companie fondată în 2021 de foști cercetători și directori de la OpenAI, rămâne singura firmă de inteligență artificială al cărei model, Claude, funcționează pe rețelele clasificate ale armatei americane, printr-un parteneriat cu Palantir, gigantul de analiză a datelor.
Contractul semnat anul trecut cu Departamentul Apărării valorează până la 200 de milioane de dolari. Claude a fost considerat cel mai avansat și cel mai sigur model disponibil pentru aplicații militare sensibile.
Problema de fond? Anthropic refuză categoric să renunțe la două limite pe care le consideră de netrecut: tehnologia sa nu trebuie folosită pentru armament complet autonom și nici pentru supravegherea în masă a cetățenilor americani.
Ce cere Pentagonul și unde trage linia Anthropic?
Hegseth a cerut ca armata să poată utiliza Claude pentru „orice scop legal”. O formulare suficient de largă încât să acopere războiul dirijat de algoritmi și monitorizarea digitală la scară largă, fără nicio restricție impusă de furnizor.
Oficialii din Pentagon consideră că limitările stabilite de Anthropic sunt exagerate și că nicio companie privată nu ar trebui să dicteze condițiile operaționale ale forțelor armate.
Dario Amodei a repetat în cadrul întâlnirii cele două linii roșii ale companiei sale. Într-un eseu publicat în ianuarie, el și-a explicat temerile fără ocolișuri: dacă prea puțini oameni ajung să aibă „degetul pe buton”, aceștia ar putea, teoretic, să comande o armată de drone fără cooperarea niciunui alt om.
Nu e vorba de o atitudine ostilă față de armată, a precizat Amodei. Anthropic a fost prima companie de frontieră care și-a plasat modelele pe rețele clasificate și prima care a livrat modele personalizate pentru clienți din zona securității naționale.
Dar Pentagonul nu pare dispus la jumătăți de măsură. Dacă Anthropic nu cedează până vineri, Hegseth a pus pe masă două amenințări concrete. Prima ar fi desemnarea companiei drept „risc pentru lanțul de aprovizionare”, o etichetă rezervată de regulă adversarilor externi precum Huawei, ceea ce ar obliga toți contractorii militari să întrerupă orice colaborare cu Anthropic.
A doua variantă e și mai dură: invocarea Legii producției de apărare (Defense Production Act), un instrument legislativ din anii 1950, care oferă guvernului puterea de a forța companiile private să furnizeze produse sau servicii considerate vitale pentru securitatea națională. Un oficial de la Pentagon a spus-o pe șleau pentru CNN: dacă Anthropic nu se conformează, armata va folosi tehnologia companiei oricum, cu sau fără consimțământ.
Buterin intră în scenă
În mijlocul acestei confruntări, o voce neașteptată s-a făcut auzită. Vitalik Buterin, cofondatorul Ethereum și una dintre cele mai influente figuri din ecosistemul blockchain, a postat pe X un mesaj adresat direct lui Dario Amodei, în doar trei cuvinte: „Nu cedați.” Sau, mai exact, în engleză: „Do not back down.”
Buterin a adăugat că părerea lui despre Anthropic va crește considerabil dacă firma va rezista presiunilor și va accepta cu demnitate consecințele. El a descris poziția companiei drept „foarte conservatoare și limitată”, subliniind că nimeni nu ar trebui să o confunde cu o atitudine anti-militară. Armele complet autonome și violarea sistematică a vieții private sunt lucruri pe care orice societate rațională ar trebui să le dorească mai puțin, nu mai mult, a scris Buterin.
Intervenția nu vine din senin. În ultimele luni, cofondatorul Ethereum s-a poziționat tot mai ferm pe teme legate de supravegherea digitală, autonomia tehnologică și riscurile concentrării puterii.
În ianuarie, a alocat echivalentul a 43 de milioane de dolari în Ethereum pentru finanțarea unor proiecte de protecție a vieții private și securitate digitală. Pe 20 februarie, cu câteva zile înainte de a lua partea Anthropic, a avertizat pe X că mărirea distanței dintre oameni și sistemele de inteligență artificială, în ceea ce privește controlul efectiv, nu duce nicăieri bun.
Mesajul lui Buterin atinge o preocupare care depășește granițele industriei cripto: într-o lume în care modelele de inteligență artificială devin din ce în ce mai capabile, cine stabilește limitele utilizării lor? Compania care le construiește? Guvernul care le cumpără? Sau cetățenii care, până la urmă, trăiesc cu efectele?
Totul a pornit de la raidul din Venezuela
Tensiunile dintre Anthropic și oficialii americani nu au apărut din neant. S-au acumulat treptat și au explodat după ce presa a dezvăluit că Claude fusese utilizat în cadrul raidului forțelor speciale americane din Venezuela, operațiunea în care a fost capturat fostul președinte Nicolás Maduro, în ianuarie. Tehnologia Anthropic a funcționat alături de sistemele Palantir.
Potrivit surselor citate de Axios, Hegseth a adus în discuție exact acest episod în timpul întâlnirii de marți, acuzând Anthropic că ar fi ridicat obiecții față de utilizarea lui Claude în timpul operațiunii, prin intermediul partenerului Palantir.
Amodei a negat categoric: firma sa nu a discutat niciodată cu Palantir despre operațiuni specifice, a spus el, dincolo de conversațiile operaționale de rutină. A reiterat, de asemenea, că liniile roșii ale companiei nu au împiedicat niciodată Pentagonul să-și facă treaba și nu au creat probleme nimănui de pe teren.
Un detaliu revelator vine de la CBS News: un oficial din Pentagon a recunoscut că Claude nu este imun la halucinații, adică la generarea de informații false prezentate cu aplomb drept reale, și că modelul nu este suficient de fiabil pentru a evita erori potențial letale în absența judecății umane. Ironia e greu de ignorat. Tocmai acest argument, avansat de partea care cere acces nerestricționat, sprijină de fapt poziția Anthropic: dacă modelul poate greși grav, cu atât mai mult e nevoie de supraveghere umană acolo unde miza sunt vieți omenești.
Raportul care a speriat Wall Street-ul
Confruntarea Anthropic-Pentagon se desfășoară pe fondul unei anxietăți tot mai palpabile pe piețele financiare, alimentată de un document care a devenit viral săptămâna aceasta. Publicat pe Substack pe 22 februarie de Citrini Research, raportul intitulat „Criza globală a inteligenței din 2028″ a funcționat ca un detonator pentru o vânzare masivă de acțiuni.
Documentul este construit ca un exercițiu de gândire, un memorandum macroeconomic fictiv scris din perspectiva lunii iunie 2028. În acest scenariu, automatizarea rapidă a muncii intelectuale a împins rata șomajului din SUA peste 10%, iar indicele S&P 500 a suferit o prăbușire de 38% față de vârfurile atinse în octombrie 2026.
Autorii, James van Geelen, fondatorul Citrini și fost paramedic din Los Angeles cu studii în biologie și psihologie, și Alap Shah de la firma LOTUS, au precizat limpede că nu este vorba de o predicție propriu-zisă. Este un scenariu posibil, un „stress test” aplicat economiei globale, o evaluare a riscurilor extreme pe care piețele le ignoră de obicei până când e prea târziu.
Conceptul central al raportului poartă un nume sugestiv: „PIB fantomă” (Ghost GDP). Descrie o economie în care productivitatea crește vertiginos datorită inteligenței artificiale, dar câștigurile nu mai ajung în buzunarele oamenilor obișnuiți, pentru simplul motiv că mașinile nu cheltuiesc bani pe cafea, rate la apartament sau vacanțe.
Companiile raportează profituri record, dar concediază angajați. Angajații concediați consumă mai puțin, ceea ce împinge și mai multe companii spre automatizare. Ciclul se autoalimentează, fără nicio frână naturală.
Scenariul lovește cu precădere în lucrătorii din economia cunoașterii, cei aproximativ 50% din forța de muncă americană care generează cam trei sferturi din cheltuielile discreționare ale țării.
Profesioniștii cu venituri mari sunt forțați spre economia gig, inundând oferta de muncă slab calificată și trăgând salariile în jos la toate nivelurile. Ponderea muncii în PIB scade de la 56% în 2024 la 46% în scenariul fictiv din 2028, o contracție fără precedent în istoria economică modernă.
Piețele au reacționat imediat și cu o nervozitate greu de justificat printr-un simplu exercițiu teoretic. Luni, indicele Dow Jones a pierdut peste 800 de puncte. Doar 27% dintre acțiuni au închis pe plus. DoorDash, American Express, KKR și Blackstone au scăzut cu peste 8% fiecare.
Uber, Mastercard, Visa și Capital One au cedat cel puțin 3%. Indicele BlackRock pentru sectorul software din America de Nord a pierdut peste 27% de la începutul anului. Michael Burry, investitorul care a anticipat criza din 2008, a redistribuit raportul pe X cu un comentariu scurt și acid: „Și voi credeți că eu sunt pesimist.”
De ce a contat atât de mult un scenariu care nu s-a întâmplat încă?
Raportul Citrini nu spune neapărat ceva cu totul nou. Temeri legate de automatizare și pierderea locurilor de muncă există de decenii. Dar documentul a nimerit un moment în care o serie de evenimente reale au confirmat, bucată cu bucată, fragmente din scenariul descris.
Chiar în ziua în care raportul a explodat pe rețelele sociale, Anthropic a anunțat că instrumentul Claude Code poate automatiza explorarea și analiza codului COBOL, reducând procese care durau ani la câteva luni. Acțiunile IBM au căzut cu aproape 12%, cea mai mare prăbușire într-o singură zi din ultimii 25 de ani pentru companie.
Piața de mentenanță COBOL valorează în jur de 30 de miliarde de dolari anual și reprezintă una dintre activitățile cu cele mai mari marje atât pentru IBM, cât și pentru Accenture. Când inteligența artificială elimină complexitatea care îi ține pe clienți captivi, nu doar marjele se comprimă. Dispare însăși ancora care îi împiedica pe clienți să plece.
Și exemplele nu se opresc aici. Acțiunile din sectorul IT al Indiei au pierdut aproximativ 50 de miliarde de dolari în capitalizare de piață doar în februarie, pe fondul fricii de automatizare.
Sectorul de servicii IT indian exporta peste 200 de miliarde de dolari anual, iar întreaga propunere de valoare se baza pe un singur lucru: dezvoltatorii indieni costau o fracțiune din prețul celor americani. Dar când costul marginal al unui agent de programare AI coboară practic la costul curentului electric, avantajul acela se evaporă.
Noah Smith, economist și autor al publicației Noahpinion, a observat cu luciditate că raportul Citrini conține de fapt două teze suprapuse. Una microeconomică, despre industriile și profesiile pe care inteligența artificială le va răsturna. Și una macroeconomică, despre efectul agregat al acestor perturbări asupra economiei în ansamblu. Smith consideră că scenariul macro e mai puțin probabil decât lasă să se înțeleagă, dar recunoaște că teza micro are deja suport în cifre concrete.
Anthropic: compania din mijlocul furtunii
Anthropic se află într-o poziție paradoxală pe care probabil niciun manual de strategie corporativă nu o anticipează. Pe de o parte, compania crește într-un ritm amețitor. Aproximativ 80% din veniturile sale provin de la clienți corporativi.
Luna aceasta a închis o rundă de finanțare de 30 de miliarde de dolari, la o evaluare de 380 de miliarde. Are peste 500 de clienți care cheltuiesc mai mult de un milion de dolari pe an și pregătește o listare la bursă anul acesta.
Pe de altă parte, se află într-un conflict deschis cu cel mai mare cumpărător de tehnologie din lume. Și face obiectul unor presiuni care ar putea schimba fundamental raportul de forțe dintre companiile private de inteligență artificială și statul american.
Istoria Anthropic are și un capitol mai puțin confortabil. Sam Bankman-Fried, cofondatorul FTX, a investit 500 de milioane de dolari în companie înainte ca platforma sa de tranzacționare cripto să intre în colaps. Legătura nu mai are relevanță operațională astăzi, dar continuă să apară periodic în discuția publică.
Jensen Huang, directorul general al Nvidia și partener strategic al Anthropic printr-un acord semnat în noiembrie, care include un angajament de investiții de 5 miliarde de dolari, a comentat miercuri cu pragmatismul care îl caracterizează.
A spus că disputa nu este „sfârșitul lumii”, că Pentagonul are dreptul să folosească tehnologia pe care o achiziționează cum consideră de cuviință, dar că speră într-o rezolvare. A adăugat, sec, că Anthropic nu este singura companie de inteligență artificială de pe planetă și nici Pentagonul nu este singurul client.
O întrebare care ne privește pe toți
Dincolo de cifrele și contractele aflate în joc, confruntarea din această săptămână ridică o întrebare cu care societatea abia începe să se confrunte serios: într-o eră în care inteligența artificială devine un instrument strategic la fel de important ca armamentul convențional, cine trasează limitele?
Pentagonul spune că nicio companie privată n-ar trebui să dicteze cum folosește armata un instrument pe care l-a plătit din bani publici. Anthropic răspunde că există limite etice și tehnice pe care niciun client, fie el și cel mai puternic din lume, n-ar trebui să le depășească.
Iar Vitalik Buterin, privind din afara sistemului tradițional, insistă că armele autonome și supravegherea de masă sunt pericole pe care întreaga societate ar trebui să le respingă, indiferent de cadrul legal invocat.
Raportul Citrini adaugă o dimensiune suplimentară. Dacă inteligența artificială are cu adevărat potențialul de a restructura economia globală în ritmul sugerat, atunci întrebarea nu e doar cine controlează aceste instrumente acum. E ce fel de lume construim dacă le lăsăm să funcționeze fără restricții. Chiar dacă scenariul din 2028 nu se va materializa exact așa cum a fost descris, direcția pe care o indică, aceea a unei automatizări care generează profituri fără a distribui beneficiile, e vizibilă deja în datele de astăzi.
Vineri e termenul limită. Anthropic nu dă semne că va ceda. Pentagonul nu dă semne că va renunța. Iar piețele, tot mai conștiente de ce înseamnă inteligența artificială pentru lumea în care trăim, privesc cu respirația tăiată fiecare mișcare.






