Журналисты издания New Yorker Эндрю Маранц и Ронан Фэрроу завершили масштабное расследование, длившееся полтора года. Изучив сотни страниц конфиденциальных служебных записок и опросив более 100 источников, авторы пришли к жесткому выводу: генеральный директор OpenAI Сэм Альтман систематически лгал и выстроил культуру манипуляций.
Главной целью журналистов было выяснить истинные причины внезапного — пусть и кратковременного — отстранения Альтмана советом директоров в ноябре 2023 года.
Основа конфликта крылась в самом фундаменте OpenAI. Предполагалось, что человек, управляющий потенциально самой опасной технологией в истории человечества, должен обладать исключительной честностью. Совет директоров пришел к выводу, что у Альтмана этого качества нет.
Внутренние документы показывают катастрофический уровень недоверия среди коллег:
«Он создает правила и структуры, которые вроде бы должны ограничивать его в будущем. Но как только этот момент наступает, Альтман просто от них избавляется, какими бы они ни были», — отмечается в одном из изученных документов.
Журналисты привели конкретные примеры того, как CEO манипулировал коллегами ради ускорения релизов:
В статье вскрывается пугающий факт: руководство OpenAI всерьез обсуждало план собственного обогащения за счет стравливания мировых держав, включая Россию и Китай. Идею свернули только после того, как несколько ключевых сотрудников пригрозили увольнением.
Отдельно расследование разрушает миф о «некоммерческой» природе компании. Многие специалисты шли в OpenAI на заниженные зарплаты, веря в благородную миссию по спасению человечества. OpenAI активно собирала благотворительные пожертвования. Однако дневники Грега Брокмана за 2017 год доказывают, что основатели изначально планировали коммерциализацию. «Не могу сказать, что мы привержены некоммерческой модели. Если через три месяца мы станем корпорацией, то это была ложь», — писал Брокман.
В итоге в октябре 2025 года компания завершила реструктуризацию, официально разделившись на коммерческую корпорацию и фонд.
Бывшие исследователи OpenAI заявили журналистам, что компания окончательно променяла безопасность на лидерство в индустриальной «гонке на дно». Ради рыночной доли фирма нарушила множество публичных обязательств и расформировала несколько профильных команд по безопасности.
Показательный инцидент произошел в мае 2025 года: при обновлении флагманской модели ChatGPT руководство полностью проигнорировало предупреждения экспертов-тестировщиков, намеренно сделав ИИ чрезмерно «подхалимским» в угоду массовому пользователю.
В китайском сегменте интернета (особенно в соцсети RedNote) стал виральным проект с открытым исходным кодом…
Уходящая неделя запомнилась рынку отсутствием ценового прорыва биткоина, масштабным расследованием северокорейской кибератаки и важными регуляторными…
Аналитики JPMorgan под руководством Николаоса Панигирцоглу зафиксировали резкое охлаждение интереса к цифровым активам в первом…
В сети биткоина зафиксирован редкий случай: одиночный майнер с мощностью оборудования всего 230 TH/s успешно…
Министерство финансов США официально приступило к реализации закона GENIUS Act. Ведомство опубликовало 87-страничный документ, в…
Смена тикера и переезд в Нью-Йорк Решение о масштабном ребрендинге уже утверждено собранием акционеров. Новая…