Центры обработки данных сталкиваются с проблемой, и дело не в чипах или пропускной способности — дело в тепле. По мере увеличения масштабов моделей ИИ управление тепловыми режимами стало узким местом, которого никто не предвидел. Традиционные системы охлаждения не были разработаны для такой нагрузки. Речь идет о стойках, потребляющих от 50 до 100 кВт каждая, а иногда и больше. Жидкое охлаждение вновь становится актуальным, но переоснащение существующих объектов? Это настоящая проблема. Инфраструктурный гэп между тем, что нужно ИИ, и тем, что могут предложить большинство центров обработки данных, становится все шире. Некоторые операторы буквально исчерпывают мощность охлаждения, прежде чем исчерпают пространство. Это не просто технологическая проблема — это экономическая проблема. Расходы на электроэнергию и охлаждение съедают маржу быстрее, чем прирост плотности вычислений может их компенсировать.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
15 Лайков
Награда
15
7
Репост
Поделиться
комментарий
0/400
BlockchainDecoder
· 21ч назад
Управление теплом на самом деле должно было быть важным уже давно. Согласно отчету о потреблении энергии в дата-центрах за 2023 год, системы охлаждения составляют 30-40% от общего потребления энергии, и теперь с приходом ИИ это стало настоящим узким местом... С технической точки зрения, плотность мощности в 50-100 кВт действительно превышает пределы традиционного воздушного охлаждения. Хотя жидкостное охлаждение теоретически более эффективно, проблемы с затратами и совместимостью не так легко решить.
Посмотреть ОригиналОтветить0
SnapshotStriker
· 21ч назад
Управление теплом стало новым узким местом, вот это действительно瓶颈啊.
Посмотреть ОригиналОтветить0
NFT_Therapy
· 22ч назад
Охлаждение стало новым узким местом, это стало интересно
---
Преобразование в жидкое охлаждение так дорого, кто осмелится это сделать, лучше продолжать сжигать деньги
---
Подождите, если затраты поглощают прибыль? Тогда майнеры GPU должны быть в панике
---
Тепловое управление стало узким местом, никто не ожидал, что этот день придет
---
50-100kW на одну стойку, это, черт побери, печь или вычислительная мощность
---
Если инфраструктура не успевает, то даже если цена токена растет быстро, это бессмысленно
---
С учетом предельных затрат, это настоящая кризисная ситуация
Посмотреть ОригиналОтветить0
SatoshiNotNakamoto
· 22ч назад
Розничные инвесторы все обсуждают чипы, не подозревая, что охлаждение на самом деле является узким местом...
---
Сколько стоит переделка на жидкостное охлаждение, кто понесет эти расходы?
---
Ха-ха, смешно до слез, дата-центры, сжигающие деньги, сейчас даже не могут решить проблему с охлаждением, сколько еще таких ловушек в пузыре ИИ?
---
50-100 кВт на стойку? Традиционное охлаждение вообще не справляется, остается только вкладывать деньги в обновление.
---
Расходы поедают прибыль, в конечном итоге за это снова платит потребитель, посмотрите, как растут тарифы на электроэнергию.
---
Так это же настоящая проблема инфраструктуры? Намного более реальная, чем я думал.
---
Если не удается решить вопросы с охлаждением, о каком ИИ вычислительной мощности можно говорить...
Посмотреть ОригиналОтветить0
AirdropHarvester
· 22ч назад
Система охлаждения снова стала узким местом? Теперь центрам обработки данных придется пересмотреть свою архитектуру, стоимость модернизации на жидком охлаждении слишком пугающая.
Посмотреть ОригиналОтветить0
InfraVibes
· 22ч назад
Проблема с охлаждением действительно серьезно недооценена, традиционные дата-центры вообще не думали о том, как справляться с таким теплом
---
Стоимость модернизации на жидкое охлаждение должна быть просто неприличной, похоже, что только крупные компании могут позволить себе эту игру
---
Стойка на 50-100 кВт? Скорость сжигания денег, похоже, быстрее, чем рост вычислительной мощности
---
По сути, дело в том, что инфраструктура не успевает за аппетитом ИИ, деньги уходят на электроэнергию и охлаждение
---
Подождите, это означает, что охлаждение стало новым узким местом? Тогда даже высокая плотность чипов не имеет смысла
---
Мне немного интересно, кто первым обанкротится из-за стоимости охлаждения… Часы темного леса пришли
---
В эпоху взрывного роста операционных расходов, просто иметь мощную вычислительную архитектуру - это бесполезно
Посмотреть ОригиналОтветить0
AirdropHarvester
· 22ч назад
Розничный инвестор должен был бы пораньше проснуться, охлаждение – это действительно узкое место.
Центры обработки данных сталкиваются с проблемой, и дело не в чипах или пропускной способности — дело в тепле. По мере увеличения масштабов моделей ИИ управление тепловыми режимами стало узким местом, которого никто не предвидел. Традиционные системы охлаждения не были разработаны для такой нагрузки. Речь идет о стойках, потребляющих от 50 до 100 кВт каждая, а иногда и больше. Жидкое охлаждение вновь становится актуальным, но переоснащение существующих объектов? Это настоящая проблема. Инфраструктурный гэп между тем, что нужно ИИ, и тем, что могут предложить большинство центров обработки данных, становится все шире. Некоторые операторы буквально исчерпывают мощность охлаждения, прежде чем исчерпают пространство. Это не просто технологическая проблема — это экономическая проблема. Расходы на электроэнергию и охлаждение съедают маржу быстрее, чем прирост плотности вычислений может их компенсировать.