8月7日(水)放送の「ワールドビジネスサテライト」(テレビ東京)でデータセンターの冷却について取り上げていたのでご紹介します。
AI、人工知能の普及に伴い、建設が相次ぐデータセンターには様々な情報を保管・利用するため、多くのサーバーが並んでいます。
サーバーは稼働させると熱を発するため、絶えず冷却して故障を防ぐ必要がり、膨大な電力を消費することが課題となっています。
こうした中、より効率的に冷却出来る新たな技術の開発が進んでいます。
名古屋市内にあるスーパー、バロー 高辻店。
出来立ての総菜を販売するコーナーに、ある工夫が。
AIを活用して、毎日どれくらいの総菜を作ればいいか、予測しているのです。
ソフトバンクが開発した「サキミル」で、このサービス気象情報や人流データを組み合わせ、AIが1週間後までの総菜の需要を予測します。
経験と勘を頼りに予測するのに比べ、スタッフの労働時間を3割ほど削減出来たといいます。
お客の来店がピークを過ぎた午後7時半、AIの予測通り、弁当や総菜をほぼ売り切ることが出来ました。
バローを運営する中部フーズの河合秀樹さんは次のようにおっしゃっています。
「売り上げが3%、利益も4%上がりました。」
「欠品率も18%、廃棄率も約20%減少しました。」
「非常に効果が高いので、年内には全店、約250店舗に展開しようと思っております。」
利用が拡大するAI、それを支えるのが大量の情報を処理するデータセンターです。
そこで今、大きな課題となっているのがサーバーが発する熱です。
サーバーの熱を冷ますため、強力なファンが24時間回り続け、温度を一定に。
サーバーラックの中を見せてもらうと、NTTデータの渋谷誉人さんは次のようにおっしゃっています。
「ここ(ラックの表側)が発熱して、暑い空気が後ろから出てきます。」
「通常のサーバーですと、それをそのまま外に置いてある空調機で冷やすんですけど、それでは間に合わないので、ここで直接冷たい空気に替える処理をしています。」
サーバーラックに冷却装置を備えた特別仕様となっています。
特にAI向け半導体チェックは70〜80℃もの高温に。
高性能になるほど、より多くの熱が出て、それを冷やすために多くの電力が必要になります。
渋谷さんは次のようにおっしゃっています。
「(サーバー)1つ当り、大きな発熱量になりますので、(1つのラックに)フルに搭載するには、空気で冷やす方式では、もう限界になってきまして。」
どうすれば、効率的にサーバーを冷やせるのか、新たな技術の開発が進んでいます。
三菱重工業 横浜製作所(横浜市)が開発したのが、特殊なオイルを使った冷却方法です。
三菱重工業の五味慎一郎さんは次のようにおっしゃっています。
「空気だと冷やしきれない温度になっているので、こういうかたちで液冷却というのを使っています。」
長方形のサーバーそのものをオイルの中に。
冷たい空気で当てて冷やすよりも効率が良く、電力を約4割削減出来るといいます。
しかし、サーバーは壊れないのでしょうか?
五味さんは次のようにおっしゃっています。
「大丈夫です、」
「大丈夫な液体を使っていると。」
長年かけて実用化した、この技術。
三菱重工業は自社が手掛けるデータセンターを中心に普及を図りたい考えです。
五味さんは次のようにおっしゃっています。
「いかに少ない電力で効果的に冷やせるか、技術をうまく組み合わせて提供していきたい。」
一方、NTTコミュニケーションズが開発したのが水でチップスそのものを冷やす技術です。
サーバーの中を見せてもらうと、電子回路の上に茶色い銅板と黒いパイプが付いています。
NTTコミュニケーションズの松林修さんは次のようにおっしゃっています。
「こちらの銅版がありまして、非常に熱の電動効率がいいものですから、こちらの銅板を水で冷やすことにより、そして、そこに設置しているチップが冷やされると、そういう仕組みになっております。」
銅板を半導体チップに密着させ、その銅板を冷却プレートで絶えず冷やすことで高温になるのを防ぎます。
チップを直接冷やすため、効率が良く、冷たい空気を当てて冷やすよりも消費電力を3割以上削減出来るといいます。
この技術を導入した大阪のデータセンターにはアメリカの半導体大手、エヌビディアがサーバーの中核となる部品のGPUを納入。
技術力の高さが認められ、協力を深めています。
松林さんは次のようにおっしゃっています。
「大きなGAFAMと言われる企業もそうですし、これからは新しいデータセンターがどんどん伸びていく中では、こういった(サーバーを冷やす)仕組みを展開していきまして、皆さんにご安心いただけるようなサービスを展開していきたいと考えております。」
以上、番組の内容をご紹介してきました。
番組の内容を以下にまとめてみました。
(データセンターのサーバーを巡る課題)
・AIの普及に伴い、建設が相次ぐデータセンターには様々な情報を保管・利用するため、多くのサーバーが並んでいる
・サーバーは稼働させると熱を発するため、絶えず冷却して故障を防ぐ必要がり、膨大な電力を消費することが課題となっている
・こうした中、より効率的に冷却出来る新たな技術の開発が進んでいる
(スーパー、バローの事例)
名古屋市内にあるスーパー、バロー 高辻店では、出来立ての総菜を販売するコーナーでAIを活用して、毎日どれくらいの総菜を作ればいいか、予測している
・ソフトバンクが開発した「サキミル」で、このサービス気象情報や人流データを組み合わせ、AIが1週間後までの総菜の需要を予測する
-経験と勘を頼りに予測するのに比べ、スタッフの労働時間を3割ほど削減出来たという
・お客の来店がピークを過ぎた午後7時半、AIの予測通り、弁当や総菜をほぼ売り切ることが出来た
・バローを運営する中部フーズの河合さんは次のように成果を述べる
-売り上げが3%、利益も4%上がった
-欠品率も18%、廃棄率も約20%減少した
-非常に効果が高いので、年内には全店、約250店舗に展開する
(利用が拡大するAI支える大量の情報を処理するデータセンターの課題解決)
NTTデータの事例:
・データセンターのサーバーが発する熱を冷ますため、強力なファンが24時間回り続け、温度を一定にしている
・NTTデータでは、サーバーラックに冷却装置を備えた特別仕様で、サーバーで直接冷たい空気に替える処理をしている
三菱重工業の事例:
・三菱重工業 横浜製作所(横浜市)は特殊なオイルを使った冷却方法を開発した
-空気だと冷やしきれない温度になっているので、液冷却を使っている
-長方形のサーバーそのものをオイルの中に入れている
-冷たい空気を当てて冷やすよりも効率が良く、電力を約4割削減出来るという
・三菱重工業は自社が手掛けるデータセンターを中心に普及を図りたい考えである
NTTコミュニケーションズの事例:
・NTTコミュニケーションズは水でチップスそのものを冷やす技術を開発した
-銅板を半導体チップに密着させ、その銅板を冷却プレートで絶えず冷やすことで高温になるのを防ぐ
-チップを直接冷やすため、効率が良く、冷たい空気を当てて冷やすよりも消費電力を3割以上削減出来るという
・この技術を導入した大阪のデータセンターには半導体大手のエヌビディアがサーバーの中核となる部品、GPUを納入している
・技術力の高さが認められ、協力を深めている
なお、エヌビディアでは来年1月にも新型のサーバーの出荷を予定しています。(添付1参照)
この新型サーバーは、性能向上とエネルギー効率の改善を両立させており、データセンターの運用効率を高めることが期待されています。
さて、今後とも世界的にAIの活用の拡大が見込まれます。
それに伴い、サーバーは稼働させると熱を発するため、絶えず冷却して故障を防ぐ必要がり、膨大な電力を消費することが大きな課題となっているのです。
そうした中、国内ではスーパー、バローの事例にあるように、ソフトバンクが開発した「サキミル」で、AIが1週間後までの総菜の需要を予測するといった取り組みが進められています。
また、NTTデータや三菱重工業、あるいはNTTコミュニケーションズでは、それぞれ異なる方法でデータセンターのサーバーが発する熱を冷ますための取り組みが進められているのです。
一方、エヌビディアでは来年1月にも新型のサーバーの出荷を予定しています。
そして、このサーバーにも新しい冷却システムが投入されているといいます。
さて、ここで気になるのは、エヌビディアの新型のサーバーの冷却技術がNTTデータなど国内のメーカーの冷却技術を凌駕してしまうのではないかということです。
そもそもエヌビディアのサーバー開発資金力は他の国内外のメーカーとの比較で圧倒的優位にあるからです。(添付4参照)
ですから、日本のサーバー関連メーカーはエヌビディアと重複しないエリアでの開発の取り組みが求められると思うのです。
添付1)
サーバーの冷却効果も含めたエヌビディアが来年1月にも出荷を予定しているサーバーの仕様は?
ChatGPT
NVIDIAは、2025年1月に新型AIサーバー「GB200 NVL4」を出荷する予定です。このサーバーは、4基のBlackwell GPUと2基のGrace CPUを1枚のマザーボード上に統合し、AIタスクに特化した高性能な計算能力を提供します。
Tech Tools
主な仕様:
• GPU: 4基のBlackwell GPU
• CPU: 2基のGrace CPU
• メモリ: 768GBのHBM3Eメモリ(帯域幅32TB/s)、960GBのLPDDR5Xメモリ
• 通信: NVLink技術によるプロセッサ間通信
冷却システム: GB200 NVL4は、消費電力5,400ワットの高負荷設計であり、効率的な冷却が求められます。NVIDIAは液冷技術を採用し、データセンター内の高密度環境でも安定した稼働を確保しています。
Tech Tools
液冷は空冷に比べて熱伝導効率が高く、特にハイパースケールのデータセンターでの運用に最適化されています。
また、NVIDIAはGB200 NVL72ラックおよび液冷設計をオープンソース化し、Open Compute Projectに提供しています。(添付2、および添付3を参照)
ノート
これにより、業界全体での液冷技術の普及と標準化が促進されることが期待されています。
この新型サーバーは、AIモデルのトレーニングや推論において高い性能を発揮し、データセンターの効率的な運用に貢献することが期待されています。
情報源
添付2)
NVIDIAはGB200 NVL72ラックおよび液冷設計をオープンソース化し、Open Compute Project(OCP)に提供するというが、詳細に?
ChatGPT
NVIDIAは、2024年10月のOpen Compute Project(OCP)グローバルサミットにおいて、GB200 NVL72ラックとその液冷設計をオープンソースとして提供しました。この取り組みは、AIデータセンターの効率的な構築と運用を促進することを目的としています。
NVIDIA Developer
主な特徴:
• 高密度コンピューティング: GB200 NVL72ラックは、36基のNVIDIA Grace CPUと72基のNVIDIA Blackwell GPUを接続し、1兆パラメーターの大規模言語モデルのリアルタイム推論性能を最大30倍向上させます。
NVIDIA
• 液冷技術: 高効率の液冷システムを採用し、ラックあたり最大120kWの冷却能力を提供します。これにより、データセンターのエネルギー効率と密度が大幅に向上します。
NVIDIA Developer
• オープンソース化: 設計仕様や技術情報を公開し、業界全体での採用とイノベーションを促進します。これにより、データセンターの構築時間とコストの削減が期待されます。
NVIDIA Developer
このオープンソース化により、データセンターの設計者や運用者は、最新の高性能コンピューティング環境を迅速かつ効率的に導入できるようになります。NVIDIAの取り組みは、AIインフラの進化と普及に大きな影響を与えると期待されています。
添付3)
Open Compute Project(OCP)とは?
ChatGPT
Open Compute Project (OCP) は、データセンターのハードウェア設計においてオープンソースの理念を取り入れ、効率性、スケーラビリティ、コスト削減を実現するための国際的な取り組みです。2011年にFacebookが主導して設立され、現在では多くの企業や団体が参加しています。
________________________________________
OCPの概要
• 設立背景: Facebookは自社のデータセンターを運用する中で、従来のサーバー設計が効率的でないことに気付き、データセンターのハードウェア設計を一新するプロジェクトを開始しました。この成果をオープンソースとして共有するためにOCPを設立。
• 目的:
o データセンターのハードウェア設計をオープン化し、共有。
o 無駄を省いた効率的なハードウェアの普及。
o 開発や導入コストの削減。
o 業界全体の技術革新を加速。
• 参加企業:
o Facebook、Google、Microsoft、Amazon、NVIDIA、Intel、AMD、そして多くのデータセンターやテクノロジー企業。
________________________________________
OCPの特徴
1. オープンソースのハードウェア設計:
o サーバー、ストレージ、ネットワークスイッチ、ラックなどの設計情報を公開。
o 各企業や開発者が自由に設計を改良し、共有できる。
2. 効率性の向上:
o 従来の製品と比べて、エネルギー効率が高い設計を推進。
o シンプルな構造でメンテナンスの負担を軽減。
3. 柔軟性:
o 特定のプロバイダーに依存しないハードウェアエコシステムを構築。
4. 液冷技術の普及:
o 高密度コンピューティングに対応するため、液冷の標準化も進めている。
________________________________________
OCPが注目される理由
• エネルギー効率: データセンターの電力消費が世界的に増加している中、エネルギー効率が重要課題となっています。OCPは消費電力を削減し、環境負荷を軽減する設計を促進しています。
• コスト削減: オープン設計を利用することで、ハードウェアのコスト削減が可能になります。
• イノベーション: 業界横断的な協力体制により、新しい技術の開発や普及が加速しています。
________________________________________
OCPの影響
OCPは、従来の閉鎖的なハードウェア開発の枠を超え、以下のような変革をもたらしています:
• 大規模なデータセンター運用における標準化。
• ハードウェア設計のカスタマイズ性向上。
• テクノロジー企業間の競争と協力の融合。
________________________________________
NVIDIAとOCPの関係
NVIDIAは、AIや高性能コンピューティング(HPC)の分野でOCPと連携し、液冷技術や高密度サーバー設計を公開しています。これにより、AIデータセンターの普及と効率化を推進しています。
OCPは、データセンターの未来を形作る重要なイニシアチブの一つであり、今後もその影響力は増していくと考えられます。
添付4)
エヌビディアのサーバー開発資金力は他の国内外のメーカーとの比較でどれだけ大きいか?
ChatGPT
エヌビディアのサーバー開発資金力は、売上高や利益率を基に比較すると、他の国内外メーカーと比べて非常に優れたポジションにあると考えられます。その背景を以下で詳細に説明します。
________________________________________
1. エヌビディアの資金力の概要
(1) 売上高と利益率
• 売上高(2023年第3四半期):
o エヌビディア: 181億ドル
o Intel: 141億ドル
o AMD: 58億ドル
• 営業利益率(2023年第3四半期):
o エヌビディア: 50%超
o Intel: 6%前後
o AMD: 6〜8%
エヌビディアの売上高だけでなく、高い営業利益率が大きな強みです。この高い収益性は、次世代GPUやAIチップ(H100など)の強い需要によるものです。
________________________________________
2. 国内メーカーとの比較
国内の通信・IT企業(NEC、富士通など)やサーバーメーカーの資金力と比べると、エヌビディアは以下の点で圧倒的です。
• 研究開発費:
o エヌビディアは、2024年度の年間研究開発費が60億ドル超に達する見込み。
o NECや富士通の年間研究開発費は、それぞれ約**3,000億円(20億ドル前後)**であり、エヌビディアの約1/3〜1/4にとどまります。
• 市場規模と需要:
国内メーカーは日本国内市場が主軸である一方、エヌビディアはAI市場の世界的な需要に対応し、成長基盤がグローバルです。
• 利益率の差:
日本企業はハードウェア部品のコスト負担が高く、10%以下の営業利益率が一般的。エヌビディアはソフトウェアとハードウェアを統合的に提供し、利益率が高いビジネスモデルを構築しています。
________________________________________
3. グローバルサーバーメーカーとの比較
エヌビディアの競合と見なされるDell、HPE(Hewlett Packard Enterprise)、Huaweiなどの主要サーバーメーカーとの比較も重要です。
(1) Dell Technologies
• 2023年の年間売上高は約1,020億ドルとエヌビディアより大きいですが、サーバー事業単体では20%以下が占めるため、資金規模で劣ります。
• 営業利益率は**6〜8%**と低く、エヌビディアの50%を大きく下回ります。
(2) HPE
• 2023年度の売上高は約300億ドルで、エヌビディアより小規模。
• 営業利益率は約10%。
(3) Huawei
• Huaweiはエヌビディアと異なり、ネットワーク機器や通信分野での収益が多いですが、エンタープライズサーバーの分野ではエヌビディアのAI向けGPUの競争力に対抗する技術的優位性は限定的。
________________________________________
4. 資金力の裏付けとなる市場動向
(1) AIの成長需要
• AIトレーニングや推論の市場でGPUが主役であり、特にエヌビディアの「H100」などのGPUは業界標準となっています。これが直接的に収益を押し上げています。
(2) 株式市場からの評価
• エヌビディアの時価総額は2024年時点で1兆ドル超に達し、他のサーバーメーカーを大きく上回ります。これにより、増資や研究開発への多額の投資が可能です。
________________________________________
5. 結論
エヌビディアのサーバー開発資金力は、国内外の競合と比べて圧倒的に強力です。特に、高い営業利益率、AI市場の成長需要、株式市場からの支持がその基盤を支えています。他社と比較すると以下のような優位性があります。
• 資金力の規模: DellやHPEなどの大手と比べても、サーバー開発に充てられるリソースの効率性で勝る。
• 収益性の高さ: 競合他社の5〜8倍の営業利益率により、研究開発や新技術への投資に余裕がある。
• 市場規模と成長性: 国内メーカーよりもグローバル市場での影響力が圧倒的。
エヌビディアは単なるGPUメーカーに留まらず、次世代サーバーやAI基盤の主要プレイヤーとして資金力を背景にさらなる拡大を目指しています。
TrackBack (0)| by e-an
TrackBackURL : ボットからトラックバックURLを保護しています