Zdroj: Flickr
Magazín · Novinky · v pondělí 2. 3. 2026 12:00
Americká armáda AI nástroje Anthropicu stihla nasadit při útoku na Írán
Jde o jeden z nejbizarnějších střetů technologického průmyslu s americkou vládou za poslední léta. Společnost Anthropic, tvůrce jazykového modelu Claude, se dostala do přímé kolize s Bílým domem poté, co odmítla podepsat smlouvu umožňující americké armádě neomezené využití svých nástrojů. Výsledkem byl 27. února 2026 bezprecedentní prezidentský příkaz: Trump na své platformě Truth Social nařídil každé federální agentuře okamžitě ukončit veškeré používání technologií od Anthropicu.
Přibližně hodinu a půl po zveřejnění Trumpova příkazu připojil ministr obrany Pete Hegseth vlastní prohlášení, v němž Anthropic označil za riziko v dodavatelském řetězci ohrožující národní bezpečnost.
Celý případ dostal nečekaný rozměr v pátek 28. února, kdy USA a Izrael zahájily koordinovanou vojenskou operaci proti Íránu. Podle zprávy deníku Wall Street Journal, opírající se o vládní zdroje, americké velitelství CENTCOM nasadilo právě v průběhu těchto operací nástroje od Anthropicu. Claude sloužil ke zpracování zpravodajských dat, identifikaci cílů a simulacím bojových scénářů, a to v podstatě v téže hodinové smyčce, v níž Trump podepisoval zákaz používání platformy.
Podle dostupných informací Claude při útocích nevydával autonomní rozkazy k nasazení zbraní, jeho role spočívala v analýze dat a podpoře rozhodování lidských operátorů. Nebyl to přitom první případ využití Claude v operaci s přímými bezpečnostními dopady. Podle dřívější reportáže WSJ stál Anthropic AI za zákulisím operace v Caracasu v lednu 2026, která vedla ke dopadení venezuelského prezidenta Nicoláse Madura.
Zdroj: The White HouseTrump zakázal vládním agenturám používat Anthropic
