
iOS 26は強力なオンスクリーン検索とChatGPT統合によりビジュアルインテリジェンスを拡張 - iOS Hacker
- Buipe
- 0
- zgucmb

iOS 26 ではビジュアルインテリジェンスが拡張され、ユーザーは画面に表示されている内容に関連する検索や質問ができるようになります。
目次
- スクリーンショットベースのビジュアルインテリジェンスの実践
- ターゲット画像検索
- より広範なスクリーンショット検索
- 画面上のあらゆることについてChatGPTに質問する
- 最後に
この新しい機能により、ユーザーは iPhone の画面上のあらゆるもののスクリーンショットを撮り、Google で画像検索をすばやく実行したり、それについて ChatGPT に質問したりすることができます。これらはすべてスクリーンショット インターフェースから直接行えます。
この記事では、この新機能について詳しく説明し、秋に誰でも利用できるようになるとどれほど便利になるのかを説明します。
Visual Intelligence 機能は、iOS 26 を実行している以下の一部のデバイスで利用できます。
- iPhone 16
- iPhone 16プラス
- iPhone 16 Pro
- iPhone 16 Pro Max
- iPhone 16e
- iPhone 15 Pro
- iPhone 15 Pro Max
スクリーンショットベースのビジュアルインテリジェンスの実践

Visual Intelligence のオンスクリーン検索機能は、スクリーンショット インターフェイスに組み込まれています。
スクリーンショットを撮影したら、スクリーンショットのプレビューをタップするだけで全画面表示になります。すると、 「質問」 と 「画像検索」という新しいコントロールが表示されます。
ターゲット画像検索

iOS 26は、基本的なスクリーンショットツールの域を超えています。スクリーンショット内の任意の部分をハイライトすることで、画像全体を検索するのではなく、特定の対象に絞った画像検索を実行できます。
被写体を囲むと、iOS は画像のその部分を Google 検索に送信します。すると Google は、同じまたは類似のアイテムを検索結果に表示します。例えば、商品を見ている場合、Google はオンラインで類似商品を検索し、価格情報を表示したり、購入場所へのリンクを表示したりすることができます。
より広範なスクリーンショット検索
何もハイライトせずに画像検索ボタンをタップすることもできます 。これにより、スクリーンショットに表示されているすべてのものを検索できます。画面に複数のアイテムがある場合、より広範囲に検索するのに最適です。
画面上のあらゆることについてChatGPTに質問する

Visual Intelligence に追加されたもう 1 つのエキサイティングな機能は、ChatGPT の統合です。
ユーザーは「質問する」ボタンをタップして ChatGPTにアクセスできます。起動すると、ChatGPTはスクリーンショットを自動的にスキャンし、より詳細なコンテキストや情報を提供します。また、テキストフィールドに質問を入力すると、画面に表示されている内容に基づいて回答を得ることができます。
Visual Intelligence で検索が完了したら、 X ボタンをタップしてインターフェースを終了します。
最後に
以上が、iOS 26 の新しい Visual Intelligence 機能の紹介です。このデモは、iOS 26 開発者ベータ 1 の改訂ビルドで行われたもので、この機能は今秋の最終リリースで変更される可能性があります。
開示事項:iOSHackerは、アフィリエイトリンクを通じて製品をご購入いただいた場合、手数料を受け取ることがあります。詳しくはプライバシーポリシーをご覧ください。
著者
Zaib AliはiOSHackerの創設者兼編集長です。Zaibはウェストロンドン大学でコンピュータサイエンスの学位を取得し、モバイルソフトウェアの専門知識を持っています。@xaibaliで彼をフォローしてください。
ニュースレターに登録する
最高の iOS のヒントとコツをお知らせします。
前の記事
iPhone 16eに最適なプライバシー保護スクリーンプロテクター
2025年6月14日
5分で読めます
次の記事
iOS 18.6 開発者向けベータ版がリリースされました
2025年6月16日
1分で読めます