Apple は発表した最新のアクセシビリティ機能アップデートの中で、App Store に「アクセシビリティラベル」を導入したり、Mac に新しい拡大鏡を追加したりするだけでなく、より革新的な一歩を示しました。
それは、脳-コンピュータ・インターフェース(Brain Computer Interface、BCI)を使って iPhone・iPad・Mac・Vision Pro を操作する未来です。
もしかすると、これからはスマホの操作に指を使う必要がなくなるかもしれません。
更に面白いコンテンツを観たい人は、Instagram @applealmondjp をフォローしてください!
米ウォール・ストリート・ジャーナルの報道によると、Apple は Synchron という企業と連携しており、
この会社が開発した「Stentrode(ステントロッド)」というデバイスを利用して、脳の運動皮質にある血管を通じて脳波を読み取ります。
このデバイスは開頭手術の必要がなく、頸静脈を経由して脳に導入する低侵襲な手法を採用しているのが特徴です。
この技術はすでに少なくとも10人の患者に実験的に適用されており、その中のひとりが ALS を患う Mark Jackson 氏。彼は立ち上がったり旅行することはできませんが、Vision Pro を通じて「スイスのアルプスを眺める体験」をしたり、家の家電を操作したりできたそうです。
つまり、脳波だけで iPhone や iPad を操作できる時代が、すでに始まっているというわけです。
Apple は iOS 19 や visionOS 3 で、BCI 対応をより本格的にサポートする計画です。新たに更新される 「スイッチコントロール(Switch Control)」のプロトコルを通じて、ユーザーは脳波を用いて、手を使わずに各種 Apple デバイスを操作できるようになります。
Vision Pro が登場してから1年あまり、私たちはこのデバイスを「娯楽・エンタメの延長」として捉えてきました。しかし Apple の狙いはそれだけではありません。
視線入力や環境認識を使って家電を操作できる Vision Pro は、手足の不自由な人にとってまさに“もうひとつの身体”のような存在。
そこに脳波操作が加わることで、重度障がい者やALS患者にとって新たな自由を提供するツールになり得るのです。
また、Apple は発声機能が衰えてきたユーザー向けに「パーソナルボイス」機能を強化しました。
iOS 17 では150フレーズの録音+数時間の処理が必要でしたが、iOS 19 では わずか10フレーズを話すだけで数分以内に自分の声が再現されるようになります。
生成される音声もより自然でリアルになり、短時間かつ手軽に使える支援機能として大幅に進化しています。
BCI と AI の融合で、Apple は「誰もが使えるテクノロジー」から「誰もが“自由に操作できる”テクノロジー」へと、さらに大きな一歩を踏み出そうとしています。
WWDC 2025 では、これらの機能がどこまで実装され、どのように進化しているのかにも大いに注目です!
更に面白いコンテンツを観たい人は、Instagram @applealmondjp をフォローしてください!
もっと読む
iOS 19 のアクセシビリティ機能が先行公開!新機能は 19 項目、ついに「脳波コントロール」にも対応!
iOS で話題の「乗り物酔い軽減モード」が Mac にも!macOS 16 に『車両モーションキュー』が登場予定
iPhone の Bluetooth デバイス、分類設定していますか?音量監視の精度が変わります!