Armata SUA renunță la Claude în favoarea ChatGPT

În contextul administrației Trump (2025–), Pentagonul și administrația SUA au intrat într-un conflict major cu Anthropic (compania din spatele modelului Claude), culminând cu o decizie rapidă de a trece la OpenAI (ChatGPT și alte modele GPT) pentru utilizarea AI în rețele clasificate militare. Evenimentele s-au derulat rapid în ultimele zile din februarie 2026 (aprox. 27–28 februarie).

Contextul disputei

Anthropic avea un contract existent cu Pentagonul (inclusiv integrare în sisteme clasificate, posibil via parteneriate anterioare cu Palantir). Compania a cerut garanții ferme că tehnologia sa nu va fi folosită pentru:

  • supraveghere masivă domestică a cetățenilor americani,
  • arme complet autonome (fully autonomous weapons, fără supraveghere umană pentru decizii letale).

Pentagonul (sub conducerea Secretarului Apărării Pete Hegseth) a cerut acces „fără restricții pentru orice uz legal” („any lawful use”), inclusiv eliminarea acestor safeguard-uri. Anthropic a refuzat categoric, declarând că liniile roșii sunt non-negociabile, chiar dacă ar pierde contractul de sute de milioane de dolari.

Consecințe imediate

Președintele Trump a ordonat pe Truth Social ca toate agențiile federale să înceteze imediat utilizarea tehnologiei Anthropic (cu o perioadă de tranziție de 6 luni pentru Pentagon, unde Claude era deja integrat).

Secretarul Hegseth a desemnat Anthropic drept „supply chain risk to national security” – o etichetă extrem de rară pentru o companie americană, care interzice colaborarea cu furnizorii militari sau contractanții guvernamentali.

Anthropic a anunțat că va contesta decizia în instanță și va facilita tranziția către alți furnizori dacă este necesar.

Trecerea la OpenAI

La doar câteva ore după anunțul interdicției (vineri seara, 27 februarie 2026), CEO-ul OpenAI Sam Altman a anunțat un acord cu Pentagonul: modelele OpenAI (inclusiv ChatGPT și variante GPT) vor fi deployate pe rețele clasificate militare, respectând condiții similare de siguranță – fără supraveghere masivă domestică și cu supraveghere umană pentru arme autonome. Altman a subliniat că Pentagonul a acceptat aceste limite impuse de companie și a cerut ca ele să fie aplicate uniform tuturor furnizorilor AI. Detaliile exacte ale limitelor nu au fost dezvăluite public.

Reacții și implicații

Trump și administrația: Acuzații că Anthropic este „prea woke” (termen folosit peiorativ pentru poziții considerate excesiv de progresiste sau restrictive).

Public și utilizatori: A apărut un trend „cancel ChatGPT” pe social media și Reddit – mulți utilizatori anulează abonamente și migrează către Claude, văzând decizia OpenAI ca lipsită de etică (în contrast cu refuzul Anthropic). Claude a urcat pe locul 1 în descărcări de app-uri în SUA imediat după scandal.

Alte aspecte: Pentagonul ar putea extinde accesul și la Grok (xAI/Elon Musk), deja integrat parțial în sisteme clasificate. Experți notează că modelele actuale (Claude, GPT etc.) nu sunt încă suficient de mature pentru aplicații critice de securitate națională, mai ales arme autonome.

Concluzie

Decizia ilustrează tensiunile crescânde dintre guverne (în special SUA sub Trump) și companiile AI pe tema controlului, eticii și utilizării militare a frontier AI. Anthropic a ales să-și păstreze principiile de siguranță, pierzând accesul guvernamental, în timp ce OpenAI a acceptat un compromis similar, dar a câștigat contractul. Scandalul subliniază riscurile geopolitice și etice ale AI-ului în domeniul apărării – de la supraveghere masivă la arme letale autonome – și arată cât de rapid se poate schimba peisajul furnizorilor strategici în era AI.

Leave a Reply

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *