1230 NVIDIAのLPU投資が示すAI半導体の多アーキテクチャ化とSRAM重要性の高まり
- Guest
- 2025年12月30日
- 読了時間: 2分
AI演算アーキテクチャは転換点を迎えている。**NVIDIAは約200億米ドルを投じ、新創企業Groqの言語処理器(LPU)技術のライセンスを取得し、従来のGPU中心路線以外への本格展開を示した。半導体業界では、SRAMは論理製程に統合されるon-chipメモリとして、TSMCやSamsungなどのファウンドリが供給していると分析されている。
また、MediaTek**の旗艦級SoC「天璣9500」に搭載されたNPUは、存算一体(Computing in Memory)架構を初採用し、SRAMがエッジAI分野で実用段階に入ったことを示す。
SRAMは高性能・低遅延を特長とする一方、集積度が低く、DRAMより消費電力やコスト、チップ面積の面で不利とされる。従来はCPUのL1/L2キャッシュ用途が中心であったが、近年はAI推論向けにSRAMでDRAMの一部を代替する動きが加速している。
GroqのLPUは代表例で、単一チップに最大230MBのSRAMを集積し、内蔵メモリ帯域は最大80TB/sに達する。これにより外部DRAM依存を回避し、メモリ帯域のボトルネックを解消した。EDA業者の芯測によれば、SRAM大量搭載のASIC設計が増加し、HBM中心の従来路線も再評価局面に入っている。SRAM試験・修復EDAへの需要も拡大しており、関連業者の成長機会が広がっている。
AI推定
2026年以降、GPU・LPU・TPUが用途別に併存する「多アーキテクチャ並行時代」に入り、AI推論ではSRAM比重の高い設計が主流化する可能性がある。HBM偏重は緩和され、エッジAIからデータセンターまで設計最適化の選択肢が拡大すると見られる。

