11 aprilie 2026
Acasă / Tehnologie / Tensiuni între Pentagon și industria tech: termen limită pentru compania Anthropic în privința utilizării AI în scopuri militare Un conflict iminent între armata americană și una dintre cele mai promițătoare companii de tehnologie a luat amploare, după ce secretarul american al Apărării, Pete Hegseth, a impus un ultimatum companiei Anthropic
Tehnologie

Tensiuni între Pentagon și industria tech: termen limită pentru compania Anthropic în privința utilizării AI în scopuri militare Un conflict iminent între armata americană și una dintre cele mai promițătoare companii de tehnologie a luat amploare, după ce secretarul american al Apărării, Pete Hegseth, a impus un ultimatum companiei Anthropic

25 februarie 2026
Tensiuni între Pentagon și industria tech: termen limită pentru compania Anthropic în privința utilizării AI în scopuri militare Un conflict iminent între armata americană și una dintre cele mai promițătoare companii de tehnologie a luat amploare, după ce secretarul american al Apărării, Pete Hegseth, a impus un ultimatum companiei Anthropic

Tensiuni între Pentagon și industria tech: termen limită pentru compania Anthropic în privința utilizării AI în scopuri militare

Un conflict iminent între armata americană și una dintre cele mai promițătoare companii de tehnologie a luat amploare, după ce secretarul american al Apărării, Pete Hegseth, a impus un ultimatum companiei Anthropic. Într-o decizie fermă, oficialul a stabilit pentru vineri un termen limită pentru ca firma să elimine restricțiile impuse accesului la modelul său de inteligență artificială, Claude, pentru scopuri militare, sau altfel va pierde contractul valoric de 200 de milioane de dolari.

Restricții de utilizare și riscul pierderii contractului

Disputa se învârte în jurul restricțiilor asupra modelului AI Claude, dezvoltat de Anthropic, un nume emergent în domeniul inteligenței artificiale, cunoscut pentru abordarea sa avansată și preocuparea pentru etica tehnologică. Pentagonul deține deja un contract major cu compania și intuiește potențialul imens al tehnologiei AI în susținerea acțiunilor militare, dar vrea să asigure o utilizare completă, fără restricții.

Conform unor surse apropiate situației, Pentagonul vrea ca Anthropic să permită armatei americane să exploateze AI-ul pentru “toate utilizările legale”. În cazul în care compania nu va accepta, există riscul ca legea „Producției de Apărare” să fie invocată, o lege care le permite autorităților să oblige companiile private să producă bunuri și servicii pentru securitatea națională, indiferent dacă doresc sau nu. În acest mod, Pentagonul vizează să elimine orice barieră tehnologică sau legală în calea utilizării AI-ului în operațiuni militare.

Îngrijorări legate de etica și fiabilitatea AI

Între timp, Anthropic exprimă preocupări serioase cu privire la limitele și riscurile asociate cu tehnologia pe care o dezvoltă. În centrul atenției companiei se află două teme sensibile: utilizarea AI în arme și supravegherea în masă a cetățenilor americani. Conducerea Anthropic susține că modelul Claude nu este încă suficient de fiabil pentru a fi folosit în arme, iar lipsa unor reglementări clare referitoare la utilizarea tehnologiilor de AI în domeniul supravegherii ridică semne de întrebare.

„AI nu este suficient de fiabilă pentru a opera arme”, explică un reprezentant al companiei, subliniind că fără un cadru legislativ solid, aplicabilitatea pe scară largă a acestor tehnologii în domeniul militar rămâne într-un costat riscant. În același timp, preocuparea companiei pentru supravegherea în masă a cetățenilor indică o poziție fermă în apărarea valorilor civile și a drepturilor omului, deschizând o convorbire mai amplă despre limitele etice ale inteligenței artificiale în societate.

Context și ultimele evoluții

De mai multe luni, relațiile dintre Pentagon și Anthropic se află sub semnul incertitudinii, după ce oficialii au încercat să negocieze condițiile în care AI-ul poate fi utilizat în scopuri militare. Potrivit unor informații din mediul de specialitate, Pentagonul analizează chiar posibilitatea de a încheia definitiv colaborarea cu compania dacă restricțiile impuse de Anthropic vor continua să limiteze utilizarea AI-ului în acțiuni de apărare.

De curând, s-a aflat că și în cadrul unei operațiuni militare importante, cum a fost capturarea fostului lider venezuelean Nicolás Maduro, instrumente de inteligență artificială de la Anthropic, precum Claude, au fost folosite, ceea ce accentuează controversele și ridică întrebări legate de etica și legalitatea acestor practici.

În timp ce oficialii militari urmăresc să deblocheze potențialul tehnologiilor AI, compania Anthropic rămâne precaută, reafirmându-și angajamentul față de controlul etic și de restricțiile în domeniul armelor. În această ecuație complexă, viteza și deciziile politice vor juca un rol critic în conturarea viitorului utilizării inteligenței artificiale în securitatea națională și în societate.