Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Обвал акций хранения данных: 90 миллиардов долларов на исследованиях Google AI обвиняют в фальсификации экспериментов
Автор: Deep潮 TechFlow
Статья Google, которая на прошлой неделе вызвала более чем 90 миллиардов долларов обесценивания акций мировых производителей памяти, таких как Micron, SanDisk и другие, за счет заявления о «сжатии памяти AI до 1/6» — вызвала бурю критики и споров.
Однако всего через два дня после публикации статьи, главный соперник — постдоктор из Федеральной политехнической школы Цюриха Гао Цзяньян — опубликовал открытое письмо объемом в десять тысяч слов, в котором обвинил команду Google в использовании для тестирования конкурентов однопоточного Python-скрипта на CPU, а для тестирования своих моделей — A100 GPU, а также в отказе исправить проблему, несмотря на предупреждения до подачи статьи. Чтения на Zhihu быстро превысили 4 миллиона, официальный аккаунт Stanford NLP перепостил, и научное сообщество, и рынок были потрясены.
(Справочное чтение: одна статья сбросила акции памяти)
Основной вопрос этого спора несложен: действительно ли статья, широко продвигаемая Google и вызвавшая панические распродажи на рынке чипов, систематически искажающая результаты ранее опубликованных работ, и с помощью специально созданных несправедливых экспериментов формирующая ложное представление о превосходстве по характеристикам?
Что сделала TurboQuant: уменьшила «черновик» AI в шесть раз
При генерации ответов большие языковые модели должны одновременно писать и просматривать ранее вычисленные данные. Эти промежуточные результаты временно хранятся в виде «KV Cache» (ключ-значение кеш). Чем длиннее диалог, тем толще этот «черновик», тем больше расход памяти и выше стоимость.
Разработанная командой Google алгоритм TurboQuant суть в том, чтобы сжать этот черновик до 1/6 исходного размера, при этом заявляя о нулевой потере точности и увеличении скорости вывода до 8 раз. Статья впервые опубликована на arXiv в апреле 2025 года, в январе 2026 года принята на престижную конференцию ICLR 2026, а 24 марта — перепакована и продвигается через официальный блог Google.
Технически идея TurboQuant проста: сначала применить математическое преобразование для «промывания» беспорядочных данных в единый формат, затем с помощью заранее подготовленной оптимальной таблицы сжать их поэлементно, и в конце — исправить вычислительную погрешность с помощью однобитового механизма коррекции ошибок. Независимые реализации подтвердили эффективность сжатия, а математический вклад алгоритма — реальный.
Спор не в том, можно ли использовать TurboQuant, а в том, что именно сделал Google, чтобы доказать, что его решение «значительно превосходит конкурентов».
Открытое письмо Гао Цзяньяна: три обвинения, каждое по сути
27 марта в 22:00 Гао Цзяньян опубликовал длинный пост на Zhihu и одновременно подал официальный комментарий на платформе OpenReview, где проходят рецензии ICLR. Он — первый автор алгоритма RaBitQ, опубликованного в 2024 году на конференции SIGMOD — ведущем событии в области баз данных, посвященного эффективной компрессии высокоразмерных векторов.
Его обвинения разделены на три пункта, каждый подтвержден перепиской и хронологией.
Обвинение 1: Использование чужого ключевого метода без упоминания
Ключевым общим шагом в технологиях TurboQuant и RaBitQ является «случайное вращение» данных перед сжатием. Эта операция превращает неупорядоченные данные в предсказуемое равномерное распределение, значительно снижая сложность сжатия. Это — наиболее важная и близкая по сути часть обеих алгоритмов.
Автор TurboQuant в ответах на рецензии признал этот факт, однако в полном тексте статьи не указал явно связь этого метода с RaBitQ. Важный контекст: второй автор TurboQuant, Маджид Далири, в январе 2025 года связался с командой Гао Цзяньяна, попросив помочь с отладкой его Python-версии, переписанной на основе исходного кода RaBitQ. В письме подробно описаны шаги воспроизведения и ошибки — то есть команда TurboQuant хорошо знает технические детали RaBitQ.
Анонимный рецензент ICLR также отметил, что оба используют одинаковую технологию, и потребовал обсуждения. В окончательной версии статьи команда TurboQuant не добавила этого обсуждения, а описание RaBitQ в основном тексте было перенесено в приложение.
Обвинение 2: Безосновательное утверждение о «субоптимальности» теории
В статье TurboQuant RaBitQ назван «теоретически субоптимальным» из-за «грубости» математического анализа. Гао Цзяньян указывает, что расширенная версия RaBitQ строго доказала достижение минимальной математической ошибки сжатия — это опубликовано на ведущем конференции по теоретической информатике.
В мае 2025 года его команда подробно объяснила теоретическую оптимальность RaBitQ в переписке. Второй автор TurboQuant, Далири, подтвердил, что все авторы были проинформированы. Однако в статье осталась формулировка «субоптимальный» без опровержений.
Обвинение 3: «Несправедливое сравнение в экспериментах»
Это самое сильное обвинение. Гао Цзяньян указывает, что в эксперименте скорости сравнивались два условия, при которых сравнение было несправедливым:
Первое — RaBitQ предоставил оптимизированный C++ код (поддерживающий многопоточность по умолчанию), а команда TurboQuant использовала свою переписанную на Python версию. Второе — при тестировании RaBitQ использовался однопоточный CPU с отключенной многопоточностью, а TurboQuant — GPU NVIDIA A100.
Эти условия приводят к тому, что результат — «RaBitQ медленнее TurboQuant в несколько раз» — не отражает реальной разницы, а является следствием искусственного ограничения конкурента. В статье эти различия не были должным образом раскрыты.
Ответ Google: «Случайное вращение — стандартная техника, не все статьи на нее ссылаются»
Гао Цзяньян сообщает, что в марте 2026 года команда Google в ответных письмах заявила: «Использование случайного вращения и преобразования Johnson-Lindenstrauss — стандартные методы в этой области, мы не можем цитировать каждую статью, их использующую.»
Команда Гао Цзяньяна считает, что это — подмена понятий: проблема не в том, цитировать ли все статьи, использующие случайное вращение, а в том, что RaBitQ — первая работа, которая в рамках одинаковых условий сочетает этот метод с векторным сжатием и доказывает его оптимальность. Статья TurboQuant должна точно описывать их связь.
Официальный аккаунт Stanford NLP перепостил заявление Гао Цзяньяна. Его команда опубликовала публичный комментарий на платформе OpenReview и подала официальную жалобу председателю конференции и этическому комитету, а также готовит технический отчет для arXiv.
Независимый технический блогер Дарьо Сальвати дал нейтральную оценку: TurboQuant действительно внесла реальный вклад в математику, но связь с RaBitQ гораздо ближе, чем указано в статье.
Обесценивание на 90 миллиардов долларов: споры о статье и паника на рынке
Этот научный спор произошел в очень деликатный момент. 24 марта Google опубликовала в блоге сообщение о TurboQuant, после чего начались массовые распродажи акций в секторе памяти. По данным CNBC и других СМИ, акции Micron за шесть дней упали более чем на 20%, SanDisk — на 11%, SK Hynix — на 6%, Samsung Electronics — на 5%, Kioxia — на 6%. Паника на рынке объяснялась простым доводом: «сжатие программного обеспечения уменьшает требования к памяти для AI в 6 раз», и спрос на чипы памяти должен снизиться.
Аналитик Morgan Stanley Джозеф Мур 26 марта опроверг эту логику, сохранив рекомендации «держать» для Micron и SanDisk. Он отметил, что TurboQuant сжимает только KV Cache — определенный тип кеша, а не всю память, и назвал это «обычным повышением производительности». Аналитик Wells Fargo Эндрю Роча также сослался на парадокс Джевенса, утверждая, что повышение эффективности и снижение затрат могут стимулировать более масштабное внедрение AI, что в конечном итоге повысит спрос на память.
Старые статьи, новая подача: риск цепочки передачи от исследований к рынку
Технический блогер Бен Пулладиан анализирует, что статья TurboQuant была опубликована еще в апреле 2025 года и не является новым исследованием. 24 марта Google перепаковала и продвинула ее как новое достижение, а рынок воспринял как прорыв. Такой «старый документ — новая публикация» в сочетании с возможными экспериментальными погрешностями отражает системный риск в цепочке передачи результатов AI от академической публикации к рыночной нарративе.
Инвесторам в инфраструктуру AI важно помнить: когда статья заявляет о «нескольких порядках» повышения производительности, нужно сначала проверить, насколько сравнение было честным.
Команда Гао Цзяньяна заявила, что продолжит добиваться официального решения проблемы. Google пока не дал официального ответа на конкретные обвинения в открытом письме.