概要
生成AIの普及に伴い、データセンター内に大規模なAI基盤(GPUクラスタなど)を構築するケースが増えてきました。本発表では、実際の生成AI向け基盤を構築した事例を紹介し、その裏側で直面したケーブリング設計に関する課題、およびその解決アプローチについて解説します。大規模な環境においてはラック間を跨ぐ膨大な配線が必要となり、配線が複雑化してしまうことから、配線戦略がシステムの可用性やトラブルシューティングの難易度に直結しています。実際の構築において、構築する場所やラックサイズに関する制約をどのように設計で克服したか、そのアプローチを紹介するとともに抱えている課題を皆さんと共有し、より良いネットワークの構築ができるような議論ができればと思います。
キラキラと脚光を浴びる生成AIの裏側にあたる泥臭い話題ではありますが、最も基本的な生成AIインフラを支える重要なポイントとして皆さんとの議論を踏まえて知見を深めればと思います。
議論ポイント
* ケーブリング設計における課題の共有
* 適切なケーブルを選択するには?
* 運用に関する課題 (ケーブルのラベリング、トラブルシュート時の対応
場所
国際会議場/3F
日時
Day2 2025年7月31日(木) 13:15~14:15(1時間)
発表者
井上 喬視
Takashi Inoue
さくらインターネット株式会社
菊地 秀夫
Hideo Kikuchi
株式会社フジクラ
公開資料
その他
本プログラムはストリーミング配信予定です。
アーカイブ配信
本会議終了後、順次配信予定です。