Appleがアクセシビリティ機能を強化:15分程で自分の合成音声が作れる

Apple は新しいアクセシビリティ機能をプレビューしました。これには、認知、視覚、聴覚、身体機能のアクセシビリティと、非発話者や発話能力を失う可能性のある人々向けのツールが含まれます。「iOS 17」の新機能として、これらは今秋に公開される予定です。

主なアップデートは次の通りです:

  1. 認知障害を持つユーザー:Assistive Accessにより、iPhoneとiPadの使用が容易になります。
  2. 非発話者:Live Speech、Personal Voiceを使用して会話を可能にします。
  3. 視覚障害を持つユーザー:Point and Speak機能により、テキストの識別と読み上げが可能になります。

これらの新機能は、テクノロジーがすべての人々に利益をもたらすべきだというAppleの信念を体現しています。

Assistive Access

「Assistive Access」は、大きなテキストラベルと高コントラストのボタンを備えた専用のインターフェースを提供し、ユーザーの認知的な負担を減らすことを目指しています。

視覚的なコミュニケーションを選好するユーザー向けに、Messagesアプリには絵文字専用のキーボードとビデオメッセージの録音オプションが追加されます。また、ユーザーはホーム画面とアプリで視覚的なグリッドベースのレイアウト、あるいはテキストを好むユーザー向けの行ベースのレイアウトを選択することができます。

Live Speech

「Live Speech」は、発話能力がない人々や時間とともにその能力を失っていく人々を支援するための機能です。iPhone、iPad、Macで、ユーザーは自分が伝えたいことを入力し、それを電話やFaceTime、または対面での会話中に音声として出力することができます。

Personal Voice

「Personal Voice」は、自身の声に似せて合成音声を生成する機能です。ユーザーはiPhoneまたはiPadで15分間の音声を録音し、そのデータを元にデバイス内の機械学習機能を用いて音声を作成します。このPersonal Voiceで作成された音声は、Live Speechでも使用することが可能です。

Point and Speak


「Point and Speak」は視覚障害のあるユーザー向けの機能で、ユーザーがカメラで捉えることができないものに指を向けることで、その内容を読み上げます。この機能は、カメラ、LiDARスキャナー、およびデバイス内の機械学習の入力を組み合わせて実現されています。

Appleがアクセシビリティ機能を強化

これらの新機能の導入により、Appleは認知、視覚、聴覚、身体機能に障害のある人々や、発話困難者に対して、さらに利便性とアクセシビリティを提供することを確認しました。Assistive Access、Live Speech、Point and Speakなどの進化したツールにより、ユーザーの様々なニーズに対応します。これらはすべて、Appleがテクノロジーが全ての人々に対して有益であるべきだという長年の信念を具現化しています。

併せて読みたい記事》

iPhone 好きな着信音の作り方:パソコンなしで iPhone 上で作成可能

iPhone Live Photos の使い方:ライブ写真ってこんなにすごい!変換する方法と裏技

2022 年最新版 iPhone 要らない通知を一括でオフにする方法:おやすみモードを利用

App Store 返金手続きする方法:ゲームで間違った課金したらどうする?