去年が7千人、今年は一万一千人。GAFAMに振り回されて、機器を納入しているベンダーは全く儲からないと言われるOCPのシステムですが、それでも動いている金額が大きいためか毎年参加者は増えてて、今年は11Kとのこと。日本からの参加者も増えている様子。
NVIDIAのボードメンバーへの参加の影響もあるでしょう
データ伝送速度の高速化により、DACでの接続は少なくなり。弊社でも比較短距離であってもAOC 等の光での接続を進めていますが。OCP2025の展示会場では、224Gbps per laneのcopper接続話が目立ちます。nvidia NVL72がcopper接続の影響が大きいのでしょう。
ラックの背面に縦にカートリッジ化したバックボーンで実現するもの。幅を倍にしたラックで、太いDACでの取り回しを実現したもの。機器側もCPOならぬCPC(Co-Pakaged Copper)で、多心のcopperを高密度で接続するもの。
液冷ラックは当たり前、機器も液冷対応が多数。ciscoも液冷のスイッチを参考展示。COHERENTのトランシーバーも液冷対応品。
管理用の光を使って接続の安定化?あとでもう少し調べます。
TOMAHAWK6採用の製品が順当に。128ポート800G OSFPと64ポート1.6T OSFPスイッチ。
こちらも順当か?112G per laneは少ないかな。もう少しあとで更新します。
OCPに参加しているベンダーは、価格の抑制と安定供給の観点から部品単位での個別調達を好む。その場合、CPOは変調を行うoptical engineと、ケーブルと、ELSPが個別に調達可能。しかし、従来のプラガブルと同等ではないのでまだ時間が必要という印象。シングルベンダーで調達する場合はこの問題は無い。
各社の展示の主役ではないが、実際の製品実装が多数。ハードウェアでのアビトレーションが可能になったぼはわかるが、OS/SOFT面での実装がよく判らなかった。
全く目立たない。112G per laneの2x400G DR4等でのLPOは実際に販売開始するベンダーは増える。224G per laneはLPOでは無理でLROという流れ。CPOに対し色々劣ることはあるがプラガブルは根強い。
利用するワークロードに強く依存すると思うのだが、ワンラックで構成されるAIクラスターが基本単位になって。その階層構造で大規模AI DCが構築されるとの主張が複数のセッションであった。nvidia NVL72の影響がそれほど大きいのか。もっともNVL72はラックあたりの要求電力がとても大きいので日本国内のDCで設置するのは難しいと思う。
その一方、ラック内だけ高密度高速配線が必要との前提だとcopepr/COAXでの配線が注目されているのは理解できる。