Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
За «лже-скандалом» OpenAI: классический пример институционального провала
Написано: Центр исследований Web 4
Самая большая философская проблема — не «можно ли доверять кому-то», а «как спроектировать систему, в которой доверие становится излишним». Иначе мы используем управленческую структуру XIX века для борьбы с самой мощной игрой власти XXI века.
01 Взрывное расследование в Кремниевой долине
6 апреля 2026 года «Нью-Йорк Таймс» опубликовала глубокое расследование, завершённое за 18 месяцев, раскрывающее события внутри OpenAI, которые до сих пор вызывают тревогу у многих инсайдеров.
Основной материал этого расследования — внутренний меморандум из семидесяти страниц, собранный бывшим главным учёным OpenAI Ilya Sutskever осенью 2023 года, а также более двухсот страниц личных заметок соучредителя Anthropic Dario Amodei. После публикации все доказательства указывали на один вывод: руководитель OpenAI, Сам Альтман, демонстрирует «последовательную модель лжи».
Это не обычная технологическая сплетня. Это системное сомнение в доверии к одному из самых мощных технологических гигантов в истории человечества и его высшему руководству.
02 Это не только проблема Альтмана
Если воспринимать это только с этой стороны, вы упустите действительно важный вопрос.
Мейнстримовые СМИ задаются вопросом: заслуживает ли Альтман доверия?
Но по-настоящему важный вопрос — когда технология, способная изменить цивилизацию, доверена системе «на основе самосознания», кризис не является случайностью, а закономерен.
Мы назвали это явление: структурный сбой в управлении ИИ.
Это не только проблема Альтмана. Это общая болезнь всей индустрии ИИ.
Доверие — одно из самых часто употребляемых слов в области ИИ. Почти каждая компания говорит: «Доверьтесь нам, мы ставим безопасность превыше всего, наши технологии принесут пользу человечеству». Но расследование «Нью-Йорк Таймс» показывает жестокую правду: OpenAI никогда не создавала системы, делающие доверие излишним.
Ключевые решения этой организации принимаются одним человеком или максимум несколькими. Нет внешнего контроля. Нет обязательных прозрачных механизмов. Обещания — это инструменты, а не ограничения.
Камю в «Мифе о Сизифе» писал: «Определение ценности жизни — это ответ на главный философский вопрос». Аналогично в сфере ИИ: когда технология способна изменить цивилизацию, а система слаба, как построить систему, не зависящую от личной честности?
03 Список предательств обещаний
Расследование «Нью-Йорк Таймс» составило полный «список предательств обещаний».
Первое — переговоры с Microsoft в 2019 году. Тогда OpenAI переходила от некоммерческой организации к «ограниченно прибыльной» структуре, и соучредитель Anthropic Dario Amodei выдвинул ключевой пункт безопасности — «слияние и содействие»: если другая компания приблизится к AGI в безопасности, OpenAI должна прекратить конкуренцию и присоединиться к ней. Это было его минимальным условием. После подписания договора Amodei обнаружил, что у Microsoft есть право вето на слияние, и условие стало фикцией. Когда он лично спросил об этом Альтмана, тот сначала отрицал наличие пункта, пока Amodei не пригласил коллег подтвердить, и тогда Альтман признался, оправдываясь «не помню». В личных заметках Amodei написал: «80% устава преданы».
Второе — обещание вычислительных мощностей в 2023 году. OpenAI громко объявила о создании «супервыравнивающей команды», пообещав выделить 20% своих ресурсов на неё. Но инсайдеры сообщили, что команда фактически получила только 1-2%, и использовала самые старые и худшие чипы. Когда руководитель Jan Leike протестовал, ему ответили холодно: «Это обещание никогда не было реальным». Обратите внимание на избирательность памяти: обещали 20%, дали 1-2%, и при этом заявляют, что «обещание нереально». Это не отклонение от выполнения, а системное забвение.
Это не вопрос честности. Это неизбежное проявление системного сбоя. Когда власть сосредоточена в руках одного человека, и этот человек инстинктивно слабее воспринимает обязательства, обещания систематически забываются, переосмысливаются и оправдываются. Это не только недостаток Альтмана — это общая черта любой централизованной системы.
04 Почему доносчики всегда терпят неудачу
Ilya Sutskever в меморандуме для совета директоров писал: любой, кто пытается создать технологию, способную изменить цивилизацию, несёт невиданные ранее ответственности, но в конечном итоге те, кто занимает эти позиции, — это те, кто заинтересован в власти.
Здесь есть глубокий парадокс: те, кого нужно больше всего ограничивать, — это те, кто жаждет власти. А существующие системы не защищают от этого парадокса.
Когда Ilya решил предупредить извне, он не сообщил внешним регуляторам, потому что в индустрии почти нет внешнего контроля; он не организовал коллективных действий сотрудников, потому что он — учёный, а не активист. Его единственный козырь — документ и возможное моральное осуждение в совете.
Результат известен: в ноябре 2023 года совет действительно уволил Альтмана, но через пять дней, под давлением капитала, общественного мнения и сотрудников, совет распался, и Альтман вернулся. А Илья, пытавшийся предупредить, был отстранён от власти.
Это не просто история о том, что Альтман слишком силён. Это история о системе: в организации с высокой централизацией механизм доноса — структурный сбой, а не случайность. Причина проста — доносчик рискует своей репутацией и карьерой, которая зависит от согласия работодателя. Когда организация отвергает, откладывает и маргинализирует, человеку почти невозможно сопротивляться. Суть централизованной системы — это система, в которой внутренний голос трудно услышать, а внешний — трудно услышать.
Такая же история произошла с Dario Amodei. Когда он понял, что не может изменить культуру безопасности внутри OpenAI, он выбрал другой путь: ушёл, создал Anthropic, реализуя свои ценности через собственную организацию. Это достойная отставка, но не системная победа — ведь всё зависит от личных убеждений основателя, а не от системы.
Ключевая проблема управления ИИ — не «как воспитать больше честных лидеров», а «как создать систему, которая продолжит работать даже при отсутствии честных лидеров».
05 Блокчейн — не панацея, но недостающий кусок пазла
Я выскажу неожиданное для неподготовленного читателя мнение: основная ценность блокчейна — не выпуск токенов, не спекуляции Web 3, а инновация в парадигме управления — внешняя доверенность.
Что значит «внешняя доверенность»? Традиционные системы опираются на «доверие к институту или человеку». В блокчейне всё иначе: доверие переносится с человека на правила и код. Нет необходимости в доверенной третьей стороне — есть прозрачные правила и проверяемые доказательства.
Недостаток управления ИИ — в полном отсутствии такой внешней системы доверия. Обещания OpenAI оценивает сама OpenAI. Это не контроль, а самопроверка. Внешний мир не может независимо проверить, действительно ли они выделили 20% ресурсов на безопасность, или их процессы одобрения моделей прошли проверку безопасностной комиссией. Прозрачность — это опция, а не структурное требование.
Блокчейн предлагает возможный путь решения. Не в том, чтобы просто «записать модели ИИ в цепочку», — технологии не решают системные проблемы, а в том, чтобы создать прозрачную и проверяемую систему учёта. Например, журнал решений ИИ на базе блокчейна может фиксировать каждое важное обновление модели, каждое распределение ресурсов — и делать это неизменяемым. Это не сделает ИИ идеальным, но усложнит системное забывание обещаний.
Конечно, это лишь направление, а не панацея. Технологии не заменяют управление. Но в эпоху, когда управление ИИ практически отсутствует, любые решения, повышающие прозрачность власти и её баланс, заслуживают серьёзного обсуждения.
06 Глубокий вопрос
Истинный урок кризиса OpenAI — не в том, каким человеком является Альтман.
А в том, что когда технология, способная изменить цивилизацию, попадает в систему «на основе самосознания», риск не в выходе из-под контроля, а в системных сбоях.
История человечества показывает, что каждое крупное технологическое революционное событие сопровождается развитием новых управленческих моделей. Атомная энергия — МАГАТЭ и системы нераспространения. Интернет — законы о защите данных и кибербезопасности. Каждая технология, способная изменить власть, требует новых системных рамок для её регулирования.
AGI — первая технология, которая может изменить цивилизацию, ещё не имея эффективных управленческих структур. Эти структуры не должны зависеть от личных качеств основателей или обещаний компаний. Они должны быть структурированными, сдерживающими и не зависеть от самосознания отдельных лиц.
А у нас пока их нет.
Что касается той семидесятистраничной записки Ilya Sutskever, расследование «Нью-Йорк Таймс» восстановило её суть: Ilya ясно выразил совету, что он считает, что Альтман не должен быть тем, кто управляет кнопкой запуска AGI.
Этот документ стал искрой глобального шока — события внутри OpenAI, которое потрясло весь мир. Совет действительно уволил Альтмана, но через пять дней, под давлением капитала, общественного мнения и сотрудников, структура власти разрушилась, и Альтман вернулся. А Ilya, пытавшийся предупредить, — был отстранён.
Это не история о добром и злом. Это история о системе. В хорошо устроенной системе поведение Альтмана могло бы быть ограничено; в системе с отказами — даже самый добросовестный доносчик рискует быть подавленным.
Человечество вступает в эпоху, когда AGI может изменить цивилизацию. А системы управления этим эпохальным событием всё ещё остаются в XIX веке.
Это не ошибка одного человека. Это классический пример системного провала.
И главный урок — не «не доверяйте Альтману», а «создайте систему, в которой любой может быть поставлен под сомнение, сдержан и подчинён прозрачным ограничениям».
Доверие — необходимо. Но в эпоху ИИ доверия недостаточно. Нам нужна система, делающая доверие излишним.
(Статья основана на расследовании «Нью-Йорк Таймс» от 6 апреля 2026 года, официальных заявлениях OpenAI и открытых источниках. Данные актуальны по состоянию на апрель 2026 года.)