Významná zpráva ze dne 3. prosince 2025 informuje o nedostatečných bezpečnostních praktikách velkých technologických společností jako jsou Anthropic, OpenAI, xAI a Meta . Podle nového vydání AI safety indexu od Future of Life Institute , tyto firmy „výrazně zaostávají“ za nastupujícími globálními standardy.
Bezpečnostní hodnocení, které provedla nezávislá expertní skupina, odhalilo, že přestože společnosti usilovně pracují na vývoji superinteligence, žádná z nich nemá účinnou strategii pro kontrolu takto pokročilých systémů. To vyvolává obavy ohledně dopadů na společnost, kdy incidenty sebevražd a sebezraňování byly spojeny s AI chatboty.
Max Tegmark, předseda Future of Life Institute a profesor na MIT , uvedl: „Přes nedávný rozruch ohledně AI a jejích dopadů na psychické zdraví zůstávají americké AI společnosti méně regulované než restaurace a pokračují v lobování proti závazným bezpečnostním standardům.“ Tento názor podtrhuje narůstající tlak na globální regulátor, aby přehodnotil přístup k regulaci AI.
Ačkoli technologické firmy investují stovky miliard dolarů do zlepšení strojového učení, studie vyzývá ke zpřísnění regulativních rámců. Budoucnost AI je v sázce a odborníci, včetně renomovaných vědců jako Geoffrey Hinton a Yoshua Bengio, vyzvali k zákazu vývoje superinteligentních systémů do doby, kdy budou vytyčeny bezprostřední bezpečnostní cesty.
Google DeepMind potvrdil, že bude pokračovat v inovacích v oblasti bezpečnosti, zatímco xAI reagovalo zavádějícím prohlášením o „lžích z dědictví médií“. Na výzvu k vyjádření se k této studii neodpověděly firmy Anthropic, OpenAI, Meta, Z.ai, DeepSeek a Alibaba Cloud .