Meta plánuje podle interních dokumentů, do kterých nahlédl server NPR, výrazně omezit roli lidských posuzovatelů při hodnocení potenciálních rizik nových produktů a funkcí. Cílem je přenést až 90 % těchto hodnocení na systémy umělé inteligence, což by mělo celý proces výrazně zrychlit.

Novinky se týkají i vysoce citlivých oblastí, jako je bezpečnost mladistvých nebo tzv. integrita, pod kterou spadá problematika násilného obsahu, šíření dezinformací a další společensky škodlivé jevy. Podle NPR Meta v posledních dvou měsících údajně zdvojnásobila úsilí o implementaci AI do těchto procesů.

Nový systém má fungovat tak, že produktové týmy vyplní dotazník o svém produktu či funkci a ten předloží k posouzení systému umělé inteligence. Nový systém by měl zpravidla poskytnout okamžité rozhodnutí, včetně identifikace rizikových oblastí a stanovení požadavků k jejich vyřešení. Týmy pak musí tyto požadavky splnit, než může být produkt uveden na trh.

Někteří současní i bývalí zaměstnanci Mety, kteří hovořili s NPR pod podmínkou anonymity, však varují, že umělá inteligence nemusí být schopna identifikovat všechny vážné hrozby, které by odhalil lidský tým s hlubší znalostí kontextu. Jeden z bývalých vedoucích pracovníků Mety pro NPR uvedl, že snižování míry lidského přezkumu znamená vytváření vyšších rizik a že negativní externality produktových změn budou s menší pravděpodobností odhaleny dříve, než začnou způsobovat problémy ve světě.