Přední startup v oblasti umělé inteligence, společnost Anthropic, míří v úterý k federálnímu soudu v San Franciscu s jasným cílem. Od soudkyně Rity Lin bude požadovat vydání předběžného opatření, které by dočasně pozastavilo platnost černé listiny Pentagonu. Ta v současnosti blokuje využívání jejích modelů rodiny Claude, přičemž situaci dále eskalovala přímá směrnice prezidenta Donalda Trumpa, jež zakazuje federálním agenturám tuto technologii vůbec používat.
Pokud soud předběžné opatření schválí, získá technologická firma klíčový prostor pro nadechnutí. Bude moci nadále plynule obchodovat s vládními dodavateli i federálními úřady, zatímco se samotná žaloba proti Trumpově administrativě bude standardně projednávat. Vedení společnosti přitom varuje, že bez tohoto okamžitého soudního zásahu by mohla přijít o zakázky v astronomické hodnotě dosahující miliard dolarů.
Před vypuknutím současného konfliktu na konci února byl Anthropic vnímán jako jeden z průkopníků v integraci AI do státní správy. Vláda Spojených států tehdy masivně hledala cesty, jak rychle modernizovat své systémy pomocí špičkových technologií. V červenci firma dokonce podepsala s Pentagonem lukrativní kontrakt v hodnotě 200 milionů dolarů a stala se vůbec první laboratoří umělé inteligence, jejíž technologie byla nasazena v utajovaných sítích ministerstva obrany.
Ve svém návrhu na vydání předběžného opatření právní zástupci startupu argumentují, že vládní kroky způsobují nevratné ekonomické a reputační škody. Administrativa podle nich omezila právo firmy na svobodu projevu a poškodila její dobré jméno nezákonným označením za národní bezpečnostní riziko. Společnost navíc soudu připomněla, že případné zrušení zákazu nijak nenutí vládu její modely reálně využívat, ani jí nebrání v přechodu k jinému poskytovateli AI řešení.

Zlom v dosud slibné spolupráci nastal začátkem března, kdy ministerstvo obrany oficiálně označilo Anthropic za takzvané riziko pro dodavatelský řetězec. V praxi toto bezprecedentní rozhodnutí znamená, že využívání technologií této konkrétní společnosti údajně ohrožuje národní bezpečnost Spojených států. Šlo o vůbec první případ v historii, kdy byla takto tvrdě stigmatizována americká firma.
Anthropic se proti tomuto nařčení ostře ohrazuje a tvrdí, že pro takové hodnocení neexistuje absolutně žádný reálný základ. Vedení startupu je přesvědčeno, že čelí nespravedlivé odvetě za to, že si stanovilo striktní etické hranice. Firma totiž důrazně požadovala, aby ministerstvo obrany nevyužívalo modely Claude pro vývoj plně autonomních zbraní nebo k masovému sledování amerických občanů. Pentagon sice trvá na tom, že AI pro tyto účely nepoužívá, zároveň však kategoricky vyžaduje neomezený přístup k technologii pro všechny zákonné účely.
Napětí mezi oběma stranami gradovalo již od září, kdy se zadrhla klíčová jednání o nasazení modelů Claude na armádní platformě GenAI.mil. Poté, co rozhovory definitivně zkrachovaly, vydal Donald Trump v únoru na síti Truth Social prohlášení, v němž nařídil federálním úřadům okamžitě ukončit veškeré využívání technologií Anthropicu. Americký prezident tehdy uvedl, že o osudu země nebude rozhodovat radikálně levicová AI společnost, kterou řídí lidé odtržení od reality.
Pondělní přípravy na soudní stání ukázaly, že soudkyně Lin přistupuje k případu s maximální pečlivostí. Právníkům obou stran zaslala seznam konkrétních otázek, na které bude při slyšení vyžadovat odpovědi. Jedna z klíčových úvah soudu zní: Jaké důkazy ve spisu prokazují, že by si Anthropic po předání systému vládě zachoval takovou úroveň přístupu nebo kontroly nad modelem Claude, která by mu umožnila provádět sabotáže či podvratnou činnost?

Pokud zůstane bezpečnostní štítek v platnosti, vyvolá to na trhu s vládními zakázkami masivní dominový efekt. Zásadní dodavatelé obranného sektoru, mezi něž patří společnost Amazon (AMZN) , technologický obr Microsoft (MSFT) a datově-analytická firma Palantir (PLTR) , budou muset oficiálně certifikovat, že při své práci pro armádu systémy Claude nevyužívají.
Realita v terénu je však v současné době mnohem složitější. Generální ředitel společnosti Palantir Alex Karp v polovině března pro stanici CNBC potvrdil, že jeho firma nadále využívá technologii Claude při práci pro ministerstvo, a to i navzdory probíhající právní bitvě. Ještě zásadnější je pak skutečnost, že samotný AI model od Anthropicu je aktuálně aktivně nasazen ve válečném konfliktu s Íránem.
Očekávané úterní slyšení, které bude probíhat i prostřednictvím platformy Zoom, je naplánováno na 16:30 východoamerického času. Soudkyně Lin má nyní před sebou dvě možnosti postupu. Může o návrhu na předběžné opatření rozhodnout okamžitě přímo od stolu, nebo si vyhradit čas na pozdější vydání detailního písemného stanoviska.
Výsledek tohoto sporu bude bedlivě sledovat celý technologický sektor. Rozhodnutí totiž nevymezí pouze budoucí mantinely pro Anthropic, ale stanoví historický precedent pro to, jakou míru kontroly si mohou tvůrci umělé inteligence ponechat nad tím, jakým způsobem americká armáda jejich inovace na bojišti využívá.