アップルが開発中の次世代Siriは、グーグルの大規模言語モデル「Gemini」を活用することになるようだ。米メディアBloombergが11月5日に報じている。
同紙によると、アップルはグーグルが開発した1兆2千億パラメーターの大規模言語モデルを採用し、年間約10億ドル(約1570億円)を支払う契約を結んだという。
パラメーターとは、AIモデルが質問を理解して応答する能力を測る指標だ。一般的にパラメーター数が多いほど高性能になるが、訓練方法やアーキテクチャも性能に影響する。Bloombergによれば、グーグルのモデルはアップルの現行モデルのパラメーター数を「大幅に上回る」という。
ちなみに現在のクラウド版Apple Intelligenceは1500億パラメーターを使用しているが、アップルが開発中の他のモデルの具体的な数値は明らかになっていない。
アップルはGeminiを要約機能や複数ステップにわたるタスクの計画・実行に使用するが、Siriの一部機能にはアップルの独自モデルも使われる。グーグルがアップル向けに提供するAIは、アップルのプライベートクラウドサーバー上で動作するため、グーグルがアップルのデータにアクセスすることはないとのこと。
Geminiは「Mixture-of-Experts」と呼ばれる仕組みを採用しており、1兆を超える全パラメーターのうち、各質問に対して実際に動作するのは一部のみだ。この仕組みにより、処理コストを大きく増やすことなく、大規模な計算能力を実現している。
なお、アップルは次世代Siri用の大規模言語モデルとして自社製AIの使用も検討し、OpenAIやAnthropicの選択肢も検討したが、Anthropicの料金が高すぎると判断してGeminiを選んだという。
アップルはすでにグーグルと検索結果に関する提携関係にあり、グーグルはアップルのデバイスでデフォルトの検索エンジンになるために年間約200億ドル(約3.1兆円)を支払っている。つまり、差し引きすればそれでもアップルは約190億ドル(約2.9兆円)儲けている計算になる。
アップルは当面のあいだグーグルのAIに依存する計画だが、自社モデルの開発は継続しており、大規模言語モデルが十分に性能を発揮できるようになれば自社AIに移行する予定だという。
アップルはすでに1兆パラメーターのクラウドベースモデルに取り組んでおり、早ければ2026年に完成する可能性がある。
リースが遅れに遅れている新しいSiriだが、スマートになったApple Intelligence版Siriは2026年春に提供されるiOS 26.4アップデートで導入される見込みだという。

























