Uvnitř společnosti Meta šlo na první pohled o běžnou situaci, inženýr se na interním fóru zeptal kolegů na technický problém a čekal na odpověď. Jiný zaměstnanec si ale k analýze dotazu přizval interního AI agenta, který měl pomoci hledat řešení.

Agent následně sám publikoval odpověď do vlákna, aniž by si vyžádal souhlas člověka, který ho k úkolu přizval, a odstartoval tím řetězec chyb. Původní tazatel se totiž podle interní zprávy spolehl na agentovu radu a provedl doporučené kroky v infrastruktuře. Výsledkem byla špatně nastavená oprávnění, kvůli nimž se velké množství interních firemních informací i uživatelských dat otevřelo inženýrům, kteří k nim za normálních okolností neměli mít přístup.

Podle informací z úniku byla data takto dostupná přibližně dvě hodiny, než bezpečnostní tým incident odhalil a přístup opět uzavřel.

Meta interně vyhodnotila situaci jako Sev 1, tedy druhý nejvyšší stupeň závažnosti bezpečnostních incidentů, který se používá pro kritické problémy s velkým dopadem a nutností okamžitého zásahu. Firma zároveň uvedla, že nemá důkazy o tom, že by data během dvouhodinového okna unikla mimo společnost.

Pro nás uživatele to však znamená, že i čistě interní chyba v agentovi může v krajním případě ohrozit soukromí milionů účtů. Naše data, jež vkládáme do AI nástrojů, tak jedinou chybou mohou být na obdiv ostatním uživatelům. Rozhodně nejde o první případ, kdy agentní AI Meta zlobí.