iPhoneカメラの被写体を調べられる「ビジュアルインテリジェンス」の使い方
2025年5月7日(水)10時5分 ITmedia Mobile
なお、本稿で紹介する手順はiOS 18.4にアップデートした「iPhone 15 Pro」で検証している。バージョンや機種が異なる場合には、細かい差異があるかもしれない点については、あらかじめご承知おきいただきたい。
●カメラコントロールがない機種でも使える
ビジュアルインテリジェンスは、基本的にiPhone 16シリーズの一部機種で追加された「カメラコントロール」ボタンを長押しすることで起動できる機能だ。
同機能の発表時の情報では、ビジュアルインテリジェンスが対応するのは、このカメラコントロール対応モデルのみとされていたが、蓋を開けてみるとiPhoen 15 ProやiPhone 16eなど、カメラコントロールが非搭載のApple Intelligence対応機種でも利用可能だった。これらの機種の場合には、アクションボタンの挙動にカメラコントロールを割り当てておくことで、同ボタンの長押しで起動できる。
なお、「ショートカット」アプリや、「アクセシビリティ」の項目内もざっと探してはみたが、筆者が確認した範囲では、その他にビジュアルインテリジェンス機能を配置できそうな場所は見当たらなかった。現状では、カメラコントロールか、アクションボタンのどちらかからのアクセスにこだわられているようだ。
●ビジュアルインテリジェンスを使う
本記事では、初回セットアップ時に表示される画面については割愛する。以下は、ChatGPTを連携した状態での操作画面イメージだ。大まかな使用感と流れを把握してほしい。
まず、ビジュアルインテリジェンスを起動すると、カメラが立ち上がる。画面下部には、(1)「質問」、(2)シャッターボタン、(3)「検索」という3つのアイコンが並ぶ。
「質問」をタップすると、その時点でシャッターを切った状態になり、写っているものに対しての質問を入力できる状態になる。
シャッターボタンをタップすると、カメラに写った被写体によって、それぞれの反応が変わってくる。例えば、動植物や商品などにカメラを向けていた場合には、結局「質問」や「検索」の選択肢が表示され、選択した機能を実行することになる。一方で、テキストに対してカメラを向ければ「要約」というボタンが表示され、素早く内容を確認することができる。
「検索」をタップすると、カメラに写った内容でGoogleでの画像検索が実行され、類似の情報を素早く検索できる。