0925 光子チップ新興企業、AI演算に革命をもたらす
- Guest
- 2025年9月26日
- 読了時間: 7分
感謝以下続。。。光子晶片新創掀AI運算革命 - 電子工程專輯
人工知能(AI)演算需要の急速な高まりを背景に、新興半導体企業であるCelestial社とOpenLight社は開発を加速しており、早ければ本年中にも第一弾となる光子チップを市場投入する見通しである。これら次世代製品は、高性能かつ低消費電力を強みとし、Amazon、Microsoft、Googleといったハイパースケール・クラウド事業者が運営するAIデータセンターを主なターゲットとしている。『EE Times』独占インタビューにおいて、両社は最新の戦略と技術的ブレークスルーを明らかにした。
Celestial社は本年8月、TSMC関連企業であるVentureTech AllianceおよびSamsung Catalyst Fundから2億5,500万米ドルの投資を受け、累計調達額を5億2,000万米ドルに拡大した。同月には、OpenLight社もJuniper Networks(現HPE傘下)およびLam Researchの投資部門であるLam Capitalから3,400万米ドルの資金調達に成功している。
Celestial社は来年、初のシリコンベース製品を投入する計画であり、その中核技術である「Photonic Fabric」は、プロセッサー封止内でのチップ間接続や、データセンター内のラックを跨ぐサーバー間光接続を可能とするものである。今回の新規資金は、サプライチェーンの強化およびTSMCなどのファウンドリーとの連携深化に活用され、AIインフラ需要の爆発的拡大に対応することが期待されている。
一方、OpenLight社はTower Semiconductorの代工によるプロセス設計キット(PDK)用コンポーネントライブラリの拡充に注力しており、能動・受動両方の光子デバイスを網羅する。重点領域は、400Gbps変調器や、チップ上でレーザーを異種集積可能とするリン化インジウム(InP)技術である。
OpenLight社の量産加速とCPO応用への展開
Celestial社最高執行責任者(COO)Preet Virk氏は次のように述べている。
「ハイパースケール事業者は、当社の製品出荷後すぐにソリューションを採用する計画であり、時期は来年中期から下半期にかけてと見込んでいる。これにはクラウド事業者に加え、一部の半導体企業も含まれる。ハイパースケールクラウド事業者は、光学時代への移行を待ちきれない状況にある。」
OpenLight社CEOのAdam Carter氏は、同社が本年中に量産を正式に開始する予定であることを明らかにし、「極めて大規模」な顧客がリン化インジウム技術の採用に強い関心を示していると述べた。特に共同封止光学(CPO)用途において注目が高まっている。
Carter氏は「単一のCPOが実現する総帯域幅は非常に巨大であり、現時点で他社が公開しているどのデータも大きく上回る」とし、年末までに初期顧客向けの出荷を開始する計画を示した。
Celestial社の戦略と競争環境
Celestial社は、データセンター内の85%の通信が発生するサーバー内ネットワーク、すなわち「垂直拡張(scale-up)」に注力している。Virk氏は、昨年のscale-up販売量が既に銅線Ethernetによる「水平拡張(scale-out)」スイッチを上回ったと指摘した。光子チップの主要競合には、Ayar Labs、Lightmatter、Huaweiなどが挙げられる。
Lightmatter社は本年3月に「Passage M1000」を発表し、総光学帯域幅114Tbpsを実現した。このプラットフォームは多重マスク方式の能動光子インターポーザーであり、3Dパッケージングにおいて大型ダイを接続し、数千個のGPUに高速接続を提供する。同社はGlobalFoundriesやAmkorと提携し、M1000ベースの顧客設計品の生産を進めている。
同時に、Ayar Labsは世芯電子(Alchip Technologies)と9月に協業を発表し、AyarのCPO技術と世芯の設計能力を組み合わせ、TSMCのCOUPE先進パッケージング技術を活用する計画である。
Celestial社は、世界的に過去最大規模のインフラ投資が進行しており、各社が競ってAI演算能力の拡張に取り組んでいると指摘する。IBMも既に参入しており、量子コンピューティング新興企業PsiQuantumは、米国ニューヨーク州MaltaにあるGlobalFoundriesの工場で45ナノメートル窒化シリコン(GaN)プロセスを用いた光子チップ生産を進めている。
Celestial社CEOのDavid Lazovsky氏は次のように強調している。
「AI産業は根本的なボトルネックに直面している——すなわち、AIプロセッサ間で銅線を介してデータを伝送している点である。従来の銅線インターコネクトは効果的に拡張できず、次世代AIが要求する数百万単位のプロセッサを支えることは不可能である。」
NVIDIA NVLinkへの挑戦
Celestial社が主力とする「Photonic Fabric」は、NVIDIAのNVLinkに挑む有力技術と位置付けられている。NVLinkはPCIeよりも高速かつ直接的にGPUを接続できるが、Celestial社は消費電力面で大きな優位性を強調している。
Virk氏は次のように述べている。
「当社のGPU間通信は、NVLinkスイッチの消費電力のわずか4分の1にすぎない。」 Celestial社は、自社特許の光学メモリ・インターフェース・ブリッジ(Optical Memory Interface Bridge, OMIB)をNVLinkの代替技術として推進している。OMIBはIntelのEMIB、TSMCのCoWoS、SamsungのIQEに類似し、チップ内およびチップ間で光子接続を提供するものである。同社はTSMCの4ナノおよび5ナノプロセスを採用し、OMIB制御回路のトランシーバーモジュールを開発している。
Huawei、SuperPodでHPC市場を狙う
HuaweiもNVLinkを意識し、新世代SuperPodクラスタを発表した。最大15,488個のAscend NPUを接続し、一貫したシステムとして稼働させることが可能となる。輪番董事長の徐直軍氏は、SuperPodが来年Ascendチップに導入される予定であると述べた。
EMI課題とCelestialの優位性
チップサイズの拡大に伴い、パッケージ内高速インターコネクトは電磁干渉(EMI)の課題に直面している。Virk氏は次のように指摘する。
「NVIDIAやAMDは大型モノリシック・ダイを単一パッケージに統合しているが、それらを接続する高速インターコネクトは信号完全性に問題を抱えている。当社の光学I/Oはチップの任意の位置に配置でき、従来のようにエッジに限定されない。また、当社の変調器はマイクロリング素子と異なり温度感度が低い。」
Celestialはマイクロリング素子に代わり、電界で光吸収を制御する電気吸収型変調器(EAM)を採用している。Virk氏は強調する。
「NVIDIAが600〜700ナノ秒を要する処理を、当社は100〜200ナノ秒で実行可能であり、消費電力も1ビット当たり2.8ピコジュールに過ぎない。」
OpenLightのエネルギー効率とCPO戦略
OpenLightは200Gbps変調器で約1.5ピコジュール/ビットのエネルギー効率を実現。Carter氏は次のように説明する。
「200G変調器を400Gに置き換えれば、消費電力はほぼ半減できる。これこそが異種集積の強みだ。」
同社は今年2月、400Gリン化インジウム変調器を披露し、顧客のネットワーク帯域・密度拡張を支援できると主張している。
先進パッケージングが勝敗の鍵
Carter氏は市場競争の核心は先進パッケージングにあるとし、次のように述べた。
「CPOと変調技術では要求が大きく異なり、パッケージ仕様、寸法、スケールについては標準化が進んでいない。OpenLightの独自性は、当社がチップを製造するのではなく、コンポーネントライブラリを提供し、顧客が自ら設計できる点にある。」
現在、OpenLightはASE子会社ISEとパッケージングで協力。一方Celestialは、チップ設計企業に向け光学チップレットを提供する計画を進めている。Virk氏は次のように説明する。
「当社はEIC(組込み型インターポーザー)を搭載した光学チップレットを提供し、顧客はそれを任意のOSATに持ち込みパッケージングを完了できる。」
EICは従来の3D ICよりも低コストで、チップレットを多層SoC型パッケージに統合できる。Celestialはまた、顧客チップにIPを直接統合することも構想している。同社は新規チップ設計の検証を進めており、Virk氏は「世界初となる、チップ中央に光学I/Oを統合した大規模SoCになる」と見込んでいる。
メモリ階層の革新
Celestialプロダクトマネジメント担当シニアディレクターのRavi Mahatme氏は補足する。
「我々はメモリコントローラをチップの周辺に配置している。南側に2基のHBM3eコントローラ、東西両側にそれぞれ4基のDDRコントローラを配置し、合計8枚のDDR DIMMをサポートする。ソフトウェアによりHBMをDDRキャッシュとして活用し、DRAMアクセス遅延を効果的に隠蔽できる。」
Mahatme氏はこの設計を「ゲームチェンジャー」と表現し、次のように強調した。
「統合された単一メモリ空間を実現し、あらゆるプロセッサが自由にアクセス可能となる。現在、深層学習推薦モデル(DLRM)は数TB規模に達しており、従来は複数のXPUを相互接続してしか格納できなかった。今後はこれらのモデルをローカルに直接保存でき、まさにゲームのルールを根本から変える。」


