Apple、「iPhone/iPadを視線で操作」などアクセシビリティ機能を発表、今年後半に登場

2024年5月16日(木)7時59分 マイナビニュース

5月の第3木曜日は「Global Accessibility Awareness Day」(今年は5月16日)である。障碍のある人々の情報やサービスへのアクセスのしやすさ、アクセシビリティについて考える日に向けて、Appleが「Eye Tracking」「Music Haptics」「Vocal Shortcuts」「Vehicle Motion Cues」など、今年後半にリリースする予定のアクセシビリティの新機能を発表した。
「Eye Tracking」は、iPad/iPhoneの視線追跡制御を可能にする。iPadOSとiOSに統合された機能で、追加のハードウェアやアクセサリは必要ない。ユーザーは視線でアプリの各要素をナビゲートし、Dwell Control(視線による操作機能、タップ、スクロール、長押し、ドラッグなどをサポート)を使って各要素をアクティブにして操作する。
「Music Haptics」は、耳の不自由なユーザーが音楽を触感で体験できる機能である。オンにすると、iPhoneに搭載されたTaptic Engineが音楽の音声に合わせてタップ、テクスチャー、微細な振動で音楽再生を表現する。Apple Musicの何百万もの音楽で利用でき、Appleはこの機能を開発者がアプリに追加できるAPIの提供も予定している。
「Vocal Shortcuts」は、iPhoneまたはiPadで、音声によるShortcutsの実行に、Siriが理解できる発話を割り当てられる。「Listen for Atypical Speech」という、より幅広い発話に対応できるように音声認識を強化するオプションも用意される。Listen for Atypical Speechは、脳性麻痺、筋萎縮性側索硬化症(ALS)、脳卒中など、発話に影響を及ぼす後天的または進行性の疾患を持つユーザーのために設計された機能で、デバイス上の機械学習を使ってユーザーの発話パターンを認識する。
「Vehicle Motion Cues」は乗り物酔いを軽減する機能だ。乗り物で本を読んだり、スマートフォンを使用すると、移動中の振動や体の動きによって目から入る視覚情報と内耳の平衡感覚からの情報の不一致が起こり、脳が混乱して乗り物酔いが起こる。Vehicle Motion Cuesは、iPhone/iPadで、乗り物の動きの変化を表現するドット・アニメーションを画面の端に表示し、メインのコンテンツを邪魔することなく感覚の衝突を軽減する。
さらに以下のようなアクセシビリティ機能の提供を予定している。
CarPlayに音声コントロール、カラーフィルター、サウンド認識を追加。
visionOSにLive Captionsを統合。iPhone用のヒアリングデバイスのサポート、「透明度を下げる」「スマート反転」「点滅を暗くする」を追加。
VoiceOverに、新しい音声、柔軟なVoice Rotor、カスタム音量コントロールを追加。Macで、VoiceOverのキーボードショートカットのカスタマイズが可能になる。
MagnifierにReader Modeを追加、アクションボタンで簡単にDetection Modeを起動するオプション。
点字画面入力を改善。日本語対応。
ホバータイピングでテキストフィールドに入力する際にテキストを大きく表示。
AssistiveTouch用のVirtual Trackpad
スイッチ・コントロールに、iPhone/iPadのカメラを用いて、指でタップするジェスチャーをスイッチとして認識するオプション。
音声コントロールがカスタム・ボキャブラリーや複雑な単語をサポート。

マイナビニュース

「Apple」をもっと詳しく

「Apple」のニュース

「Apple」のニュース

トピックス

x
BIGLOBE
トップへ