英国のチップスタートアップFractileは、AI推論用特化型プロセッサの開発に向け、2億2,000万ドルのシリーズBラウンドを調達しました。これは、人工知能を駆動するハードウェア構築競争における新たな局面を示唆しています。Factorial Funds、Accel、およびピーター・ティールのFounders Fundが主導したこの資金調達ラウンドは、同社がAIの主要なボトルネックと見なしている「大規模モデルからの応答生成の速度とコスト」をターゲットにしています。
「私たちが目指しているのは、速くて安いことです」とFractileのCEO、ウォルター・グッドウィン氏はインタビューで語りました。2022年に同社を設立したオックスフォード大学出身のエンジニアであるグッドウィン氏は、AIモデルが巨大化するにつれ、プロセッサとメモリ間でデータを移動させるのにかかる時間がパフォーマンスの主な制約になっていると述べています。
今回の調達により、Fractileはエヌビディア(NVDA)が支配する市場に挑むための多額の資金を確保しました。Fractileの核心的な主張は、AIハードウェアで最も一般的な2つのメモリ形式である「高帯域幅メモリ(HBM)」や「オンチップ静的ランダムアクセスメモリ(SRAM)」に頼ることなく、帯域幅を最大化し、応答時間を短縮できるロジックチップとメモリアキテクチャを設計したという点です。ただし、同社は製品の具体的な技術詳細やパフォーマンスのベンチマークについては公表を控えています。
このアプローチが成功すれば、トレーニング済みモデルを実行して回答、テキスト、画像を生成するプロセスである「AI推論」の急成長市場において、魅力的な代替肢となる可能性があります。より高速で効率的な推論へのニーズは、AI研究所やクラウドプロバイダーがクエリあたりのコストを下げようとする中で、特化型ハードウェアの大規模な調達サイクルを生み出しています。
異なる技術的道筋
FractileがSRAMとHBMを避けると明言している点は、他の多額の資金を得ている挑戦者たちとは一線を画しています。今週期待されるIPOで最大48億ドルの調達を見込むAIチップ設計企業のCerebrasは、モーニングスター(Morningstar)の分析によれば、高速な応答時間を実現するために大量のオンチップSRAMを使用しています。異なるメモリアキテクチャを追求することで、Fractileはデータボトルネックの問題に対して、より拡張性が高く、費用対効果に優れた解決策を見つけられると賭けています。
競争環境は激化し、拡大しています。エヌビディアの支配的なGPUだけでなく、グーグル(GOOGL)やアマゾン(AMZN)などの大手クラウドプロバイダーも独自の推論特化型プロセッサを開発しています。同時に、地縁政治的な緊張や米国による中国へのハイエンドチップ輸出規制は、顧客がサプライチェーンを多様化し、単一の支配的なサプライヤー以外の選択肢を模索する世界的な動機を生んでいます。このような環境は、価格や性能で大きな優位性を示せるFractileのような新規参入者にとって追い風となる可能性があります。
Fractileへの2億2,000万ドルの投資と、Cerebrasが上場で目指している500億ドル近い評価額は、AI推論の課題に取り組むハードウェア企業に対する投資家の旺盛な意欲が続いていることを示しています。Fractileは依然として初期段階の非公開企業ですが、その進展は注視されるでしょう。現在のメモリソリューションに代わる、実績のある費用対効果の高い代替案は、エヌビディアやAMDといった既存の半導体巨人の競争上の地位や利益率に大きな影響を与える可能性があり、同時に主要なAI開発者による数十億ドル規模のハードウェア購入決定を左右することにもなるでしょう。
本記事は情報提供のみを目的としており、投資勧誘を目的としたものではありません。