ここ最近「Apple Intelligence」を使っている人は、Siri が思っていたほど賢くないと感じているかもしれません。
Apple 自身も Siri の課題を認識しており、現在 Google と年間約 10 億ドル規模の契約を締結する方向で調整を進めています。
この提携により、Google の「Gemini」モデルが Siri の高度版として、「要約生成」と「タスク計画」分野で AI 技術を提供し、意味理解力や複雑なマルチステップ指令への対応力を大幅に強化します。
Bloomberg の最新報道によると、Apple と Google の協定額は年間約 10 億ドルで、Google は Apple に 1.2 兆パラメータのカスタムクラウド AI モデルを提供する予定です。
理論的には、パラメータ数が多いほど高度な意味理解やタスク処理が可能になります。
現在 Apple のクラウドモデルは約 1500 億パラメータ、iPhone や iPad などのデバイス上では 30 億パラメータにとどまっています。つまり、Gemini の規模は Apple のクラウドモデルの約 8 倍に相当し、アーキテクチャ面でもより柔軟な構造を備えています。
Gemini は「Mixture-of-Experts(専門家混合)」構造を採用しており、すべての 1.2 兆パラメータを毎回使用するのではなく、タスク内容に応じて一部の「専門モデル」を選択して処理を行います。
これにより、高い潜在的計算能力を維持しつつ、コストを大幅に削減。結果として Siri の応答がより効率的になり、遅延も減少します。
Bloomberg によれば、Apple は当初、OpenAI や Anthropic(元 OpenAI メンバーが設立した企業)など複数の提携候補を内部で評価しました。
しかし、最終的にはコスト面の理由から Google との提携を選択したとされています。
ちなみに、この Siri 強化プロジェクトの社内コードネームは「Project Glenwood」。Apple Vision Pro の開発を率いた Mike Rockwell 氏が主導しており、現在は Siri 開発部門のトップを務めています。
Gemini は Siri のすべてのタスクを担当するわけではなく、「分業体制」が取られます。
音声認識や一般的な検索応答などの基本処理は Apple の自社モデルが行い、Gemini は「要約生成(情報を統合して回答を作成)」と「タスク計画(複数ステップの指令を理解・順序化)」を担当します。
Gemini モデルは Apple の「Private Cloud Compute」環境で運用され、ユーザーのデータや指令は外部に送信されません。
Apple も Google もユーザーデータへアクセスできず、命令実行以外の目的では一切保存・閲覧されない設計となっています。
Tim Cook 氏のインタビュー発言によると、進化版 Siri は最短で 2026 年 3 月の「iOS 26.4」リリース時に登場する見込みです。
Bloomberg はまた、Siri が一時的に Gemini に依存するものの、Apple が独自の 1 兆パラメータ規模の AI モデルを開発中であり、将来的には自社モデルへ完全移行する可能性があると報じています。
AI 競争が激化する中、Apple がどこまで主導権を握れるのか、今後の展開が注目されます。
もっと読む
Siri 進化版、2026 年 3 月に登場へ:Tim Cook が語る Apple Intelligence の進展
AirPods Pro 3 実機レビュー:1か月使って感じた進化と不満点