Kaynak: TokenPost
Orijinal Başlık: NVIDIA(NVDA), AI Fabrikası'nın 'işletim sistemi' haline geliyor… Veri merkezi ağ yeniliklerini yönlendiriyor
Orijinal Bağlantı:
NVIDIA ( NVDA ), yüksek performanslı GPU'ları aşarak, veri merkezleri arasındaki ağ mimarisi yeniliklerine odaklanarak AI fabrikaları için yeni bir standart belirliyor. Dağıtık hesaplama yapısında, ağı bir işletim sistemi olarak kullanarak performansı ve enerji verimliliğini artırıyor.
NVIDIA pazarlama departmanı kıdemli başkan yardımcısı Gilad Shainer (, yakın zamanda yaptığı bir röportajda şunları vurguladı: “AI yükleri esasen dağıtık olduğu için, binlerce hızlandırıcının tek bir hesaplama motoru gibi çalışabilmesi için hassas bir ağ koordinasyonu gereklidir.” Tüm GPU'lara aynı veriyi aynı hızda gecikmesiz iletme yapısının gerçekleştirilmesi, genel hesaplama hızını optimize etmek için zorunludur.
Bu dağıtık işlem yapısı içinde, ağ artık sadece basit bir bağlantı aracı değil, aynı zamanda somut bir işletim sistemi )OS( olarak işlev görüyor. Shaina, sadece bireysel GPU özel ASIC) özel entegre devre( değil, bu hızlandırıcıları içeren organik ağ tasarımının da AI fabrikasının performansını belirleyen en önemli faktör haline geldiğini belirtti.
NVIDIA, yalnızca performansı değil, aynı zamanda enerji verimliliğini de göz önünde bulundurarak, )Co-design( yöntemini kullanarak donanım, yazılım ve çerçeve arasında kapsamlı bir ağ tasarımı gerçekleştiriyor. Model çerçevesinden fiziksel bağlantılara kadar tüm hesaplama unsurları bütünsel olarak tasarlandığında, token işleme hızı, yürütme verimliliği ve öngörülebilirliği en üst düzeye çıkarılabilir. Shaina bunu vurguladı.
Özellikle yüksek yoğunluk tasarımı, NVIDIA'nın farklılaştırıcı avantajıdır. Geleneksel veri merkezleri aşırı yoğunluktan kaçınma eğilimindeyken, NVIDIA farklı bir strateji benimsemiştir: Yüksek performanslı GPU ASIC'leri raflarda sıkıca dizerek, düşük güçlü bakır bağlantılar aracılığıyla ölçeklenebilirlik ve enerji verimliliği hedeflerini ikisini birden gerçekleştirmektedir. Büyük ölçekli genişletmelerde, 'Spectrum-X Ethernet Photonics)' veya 'Quantum-X InfiniBand' gibi ortak paketlenmiş optik( teknolojilerini uygulayarak, veri hareketinin tükettiği enerjiyi daha da azaltmaktadır.
Bu strateji, basit bir donanım yükseltimini aşarak, NVIDIA'nın AI merkezli hesaplama çağında 'ultra büyük veri merkezi = süper bilgisayar' yeni paradigmasını gerçekleştirme konusundaki hırsını net bir şekilde göstermektedir. AI fabrikası altyapısının egemenliği, 'GPU üretim yeteneği'nden 'tüm veri merkezini organik hesaplama birimlerine dönüştürme yeteneğine' kaymaktadır. AI patlamasının bir sonraki aşaması, bu ağ odaklı hesaplama mimarisinden başlayacak gibi görünmektedir.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
NVIDIA ( NVDA ), AI fabrikasının 'işletim sistemi' haline geliyor: Veri merkezi ağ yeniliklerinde liderlik
Kaynak: TokenPost Orijinal Başlık: NVIDIA(NVDA), AI Fabrikası'nın 'işletim sistemi' haline geliyor… Veri merkezi ağ yeniliklerini yönlendiriyor Orijinal Bağlantı: NVIDIA ( NVDA ), yüksek performanslı GPU'ları aşarak, veri merkezleri arasındaki ağ mimarisi yeniliklerine odaklanarak AI fabrikaları için yeni bir standart belirliyor. Dağıtık hesaplama yapısında, ağı bir işletim sistemi olarak kullanarak performansı ve enerji verimliliğini artırıyor.
NVIDIA pazarlama departmanı kıdemli başkan yardımcısı Gilad Shainer (, yakın zamanda yaptığı bir röportajda şunları vurguladı: “AI yükleri esasen dağıtık olduğu için, binlerce hızlandırıcının tek bir hesaplama motoru gibi çalışabilmesi için hassas bir ağ koordinasyonu gereklidir.” Tüm GPU'lara aynı veriyi aynı hızda gecikmesiz iletme yapısının gerçekleştirilmesi, genel hesaplama hızını optimize etmek için zorunludur.
Bu dağıtık işlem yapısı içinde, ağ artık sadece basit bir bağlantı aracı değil, aynı zamanda somut bir işletim sistemi )OS( olarak işlev görüyor. Shaina, sadece bireysel GPU özel ASIC) özel entegre devre( değil, bu hızlandırıcıları içeren organik ağ tasarımının da AI fabrikasının performansını belirleyen en önemli faktör haline geldiğini belirtti.
NVIDIA, yalnızca performansı değil, aynı zamanda enerji verimliliğini de göz önünde bulundurarak, )Co-design( yöntemini kullanarak donanım, yazılım ve çerçeve arasında kapsamlı bir ağ tasarımı gerçekleştiriyor. Model çerçevesinden fiziksel bağlantılara kadar tüm hesaplama unsurları bütünsel olarak tasarlandığında, token işleme hızı, yürütme verimliliği ve öngörülebilirliği en üst düzeye çıkarılabilir. Shaina bunu vurguladı.
Özellikle yüksek yoğunluk tasarımı, NVIDIA'nın farklılaştırıcı avantajıdır. Geleneksel veri merkezleri aşırı yoğunluktan kaçınma eğilimindeyken, NVIDIA farklı bir strateji benimsemiştir: Yüksek performanslı GPU ASIC'leri raflarda sıkıca dizerek, düşük güçlü bakır bağlantılar aracılığıyla ölçeklenebilirlik ve enerji verimliliği hedeflerini ikisini birden gerçekleştirmektedir. Büyük ölçekli genişletmelerde, 'Spectrum-X Ethernet Photonics)' veya 'Quantum-X InfiniBand' gibi ortak paketlenmiş optik( teknolojilerini uygulayarak, veri hareketinin tükettiği enerjiyi daha da azaltmaktadır.
Bu strateji, basit bir donanım yükseltimini aşarak, NVIDIA'nın AI merkezli hesaplama çağında 'ultra büyük veri merkezi = süper bilgisayar' yeni paradigmasını gerçekleştirme konusundaki hırsını net bir şekilde göstermektedir. AI fabrikası altyapısının egemenliği, 'GPU üretim yeteneği'nden 'tüm veri merkezini organik hesaplama birimlerine dönüştürme yeteneğine' kaymaktadır. AI patlamasının bir sonraki aşaması, bu ağ odaklı hesaplama mimarisinden başlayacak gibi görünmektedir.