iPadやiPhoneを目で操作する「Eye Tracking」など機能追加、Apple

2024年5月18日(土)9時21分 マイナビニュース

Appleは5月15日(米国時間)、「Apple announces new accessibility features, including Eye Tracking - Apple」において、複数の新たなアクセシビリティ機能を追加すると発表した。iPadやiPhoneを目で操作する「Eye Tracking」や音楽を体験するための「Music Haptics」、カスタムサウンドでタスクを実行する「Vocal Shortcuts」、乗り物酔いを軽減する「Vehicle Motion Cues」などが紹介されている。
○2024年後半追加予定の新アクセシビリティ機能
各アクセシビリティ機能の主な特徴は次のとおり。
○Eye Tracking
AIを活用したアイトラッキング技術により、ユーザーはiPadやiPhoneを目だけで操作できるようになる。この機能は前面カメラを使って数秒で設定とキャリブレーションが可能。データはデバイス内で安全に保存され、Appleと共有されることはない。機能はiPadOSおよびiOS全体で動作し、ユーザーは追加のハードウェアやアクセサリーなしに目の動きでアプリのナビゲートや物理ボタンやスワイプ、その他のジェスチャーなど目だけでアクセスできる。
○Music Haptics
この機能を有効にすると、iPhoneのTaptic Engineが音楽のオーディオに合わせてタップやテクスチャー、精巧な振動を行う。Apple Musicカタログの数百万曲に対応し、開発者が自分のアプリで音楽をよりアクセスしやすくするためのAPIとしても提供される。
○Vocal Shortcuts
iPhoneやiPadユーザーはSiriが理解できるカスタム発話を割り当てることで、ショートカットを起動したり、複雑なタスクを完了したりできる「Vocal Shortcuts」を利用できる。また、「Listen for Atypical Speech」という新機能では、機械学習を用いて多様な発話パターンを認識し、音声認識が強化されている。この機能は脳性麻痺やALS、脳卒中など発話に影響を与える疾患を持つユーザーのために設計され、iOS 17で導入された機能に基づいて、さらなるカスタマイズとコントロールが提供される。
○Vehicle Motion Cues
乗り物酔いを軽減するiPhone/iPad向けの新機能。車両の動きに応じたドットのアニメーションを画面の端に表示することで感覚の衝突を軽減する。設定で自動表示させるか、コントロールセンターでオンとオフを切り替えられる。
その他、CarPlayに新たに音声コントロールやカラーフィルター、サウンド認識などのアクセシビリティ機能が追加されること、visionOSのアクセシビリティー機能が強化されることも発表されている。これらの機能は2024年後半に追加される予定。

マイナビニュース

「Apple」をもっと詳しく

「Apple」のニュース

「Apple」のニュース

トピックス

x
BIGLOBE
トップへ