Дата-центри натрапляють на стіну, і справа не в чіпах чи пропускній здатності — справа в теплі. Оскільки моделі ШІ розширюються, теплове управління стало вузьким місцем, якого ніхто не передбачав. Традиційні системи охолодження не були розроблені для такого навантаження. Ми говоримо про стійки, які споживають 50-100 кВт кожна, а іноді й більше. Рідинне охолодження знову стає актуальним, але переобладнання існуючих об'єктів? Це справжній кошмар. Розрив інфраструктури між тим, що потрібно ШІ, і тим, що більшість дата-центрів можуть забезпечити, стає все ширшим. Деякі оператори буквально вичерпують ємність охолодження ще до того, як вичерпають простір. Це не просто технічна проблема — це економічна проблема. Витрати на електроенергію та охолодження швидко з'їдають прибутки, перевищуючи вигоди від збільшення щільності обчислень.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
15 лайків
Нагородити
15
7
Репост
Поділіться
Прокоментувати
0/400
BlockchainDecoder
· 21год тому
Управління теплом насправді давно потребує уваги. Згідно з доповіддю про енергоспоживання дата-центрів за 2023 рік, охолоджувальні системи займають 30-40% від загального енергоспоживання, а тепер, з приходом ШІ, це стало безпосереднім вузьким місцем... З технічної точки зору, щільність потужності 50-100 кВт дійсно перевищує межі традиційного повітряного охолодження. Хоча рідинне охолодження теоретично має вищу ефективність, проблеми з витратами та сумісністю не так легко вирішити.
Переглянути оригіналвідповісти на0
SnapshotStriker
· 21год тому
Управління теплом стало новою вузькою ланкою, це справжнє вузьке місце.
Переглянути оригіналвідповісти на0
NFT_Therapy
· 22год тому
Охолодження стало новим вузьким місцем, тепер це цікаво
---
Переробка на рідке охолодження така дорога, хто наважиться це зробити, краще продовжити витрачати гроші
---
Зачекайте, витрати поглинають прибуток? Тоді у GPU майнерів має бути паніка
---
Управління теплом стало проблемою, ніхто не очікував, що цей день настане
---
50-100 кВт на один стійку, це, блін, піч чи обчислювальна потужність?
---
Інфраструктура не встигає, навіть якщо ціна монети зростає так швидко, це даремно
---
У сфері систем охолодження потрібно шукати нові ідеї, готові рішення точно не підійдуть
---
Зворотна ситуація з граничними витратами, це справжня криза
Переглянути оригіналвідповісти на0
SatoshiNotNakamoto
· 22год тому
Роздрібні інвестори всі говорять про чіпи, не знаючи, що охолодження насправді є вузьким місцем...
---
Скільки коштує перетворення на рідинне охолодження, хто понесе ці витрати?
---
Ха-ха, смішно, зараз навіть охолодження в дата-центрах, які спалюють гроші, не можуть забезпечити, скільки ще таких пасток у бульбашці AI?
---
50-100kW на один стійку? Традиційне охолодження абсолютно не витримує, доведеться вкласти гроші в оновлення
---
Витрати з'їдають прибуток, в кінці кінців, споживачеві доведеться заплатити, подивіться, як зростуть електричні тарифи
---
Отже, це справжнє вузьке місце інфраструктури? Це набагато реалістичніше, ніж я думав
---
Якщо не можуть вирішити питання охолодження, то про що говорити щодо обчислювальної потужності AI...
Переглянути оригіналвідповісти на0
AirdropHarvester
· 22год тому
Охолодження знову стало вузьким місцем? Тепер дата-центр потрібно буде реконструювати, витрати на рідинне охолодження занадто лякаючі.
Переглянути оригіналвідповісти на0
InfraVibes
· 22год тому
Відведення тепла насправді було серйозно недооцінено, традиційні дата-центри зовсім не думали, як впоратися з таким теплом
---
Вартість перетворення на рідинне охолодження має бути неймовірною, здається, що лише великі компанії можуть собі це дозволити
---
Шафа потужністю 50-100 кВт? Це спалює гроші швидше, ніж зростання обчислювальної потужності
---
Скажемо прямо, інфраструктура не встигає за апетитом AI, всі гроші йдуть на електрику та охолодження
---
Зачекайте, це означає, що відведення тепла стало новим вузьким місцем? Тоді навіть висока щільність чіпів не допоможе
---
Трохи цікаво, хто перший збанкрутує через витрати на охолодження… час темного лісу настав
---
У епоху зростання витрат на експлуатацію, навіть якщо обчислювальна потужність крута, це все одно нічого не означає
Переглянути оригіналвідповісти на0
AirdropHarvester
· 22год тому
Роздрібний інвестор повинен раніше усвідомити, що охолодження - це дійсно те, що створює проблеми.
Дата-центри натрапляють на стіну, і справа не в чіпах чи пропускній здатності — справа в теплі. Оскільки моделі ШІ розширюються, теплове управління стало вузьким місцем, якого ніхто не передбачав. Традиційні системи охолодження не були розроблені для такого навантаження. Ми говоримо про стійки, які споживають 50-100 кВт кожна, а іноді й більше. Рідинне охолодження знову стає актуальним, але переобладнання існуючих об'єктів? Це справжній кошмар. Розрив інфраструктури між тим, що потрібно ШІ, і тим, що більшість дата-центрів можуть забезпечити, стає все ширшим. Деякі оператори буквально вичерпують ємність охолодження ще до того, як вичерпають простір. Це не просто технічна проблема — це економічна проблема. Витрати на електроенергію та охолодження швидко з'їдають прибутки, перевищуючи вигоди від збільшення щільності обчислень.