YOLO Vision 2025にご期待ください!
2025年9月25日
10:00 — 18:00(英国夏時間)
ハイブリッドイベント
Yolo Vision 2024

iOS 18の内部:Appleのアクセシビリティ機能を見る

Abirami Vina

5分で読めます

2024年5月28日

Appleは、Eye Tracking、Music Haptics、Vocal Shortcutsのような新しいAI対応のアクセシビリティ機能を発表しました。これらはシームレスなユーザーエクスペリエンスを提供します。

2024年5月15日、AppleはiOS 18の今後のアップデート範囲を発表しました。アクセシビリティに重点を置いています。今年の後半にリリースされる予定の新しいAppleのアップデートには、アイトラッキング、触覚音楽、ボーカルショートカットなどの革新的な機能が含まれています。 

これらのAppleのアクセシビリティ機能により、運動機能に問題のある人、聴覚や視覚に障害のある人、および発話に困難のある人がAppleデバイスをより簡単に使用できるようになります。Appleシリコン、人工知能(AI)、および機械学習は、このような機能の背景にある技術的進歩です。Appleの新機能と、それらが日常生活に与える影響について見ていきましょう。

インクルージョンの重要性

社会として、私たちは技術の進歩がすべての人にとって包括的なものになるようにする必要があります。テクノロジーをアクセス可能にすることで、多くの人々の生活を変えることができます。たとえば、テクノロジーは今日あらゆる仕事の大きな部分を占めていますが、アクセスできないインターフェースは、障害を持つ人々のキャリアの妨げになる可能性があります。調査によると、障害者の失業率は、2018年には障害のない人のほぼ2倍になっています。

法制度もテクノロジーのアクセシビリティ向上に取り組んでいます。多くの国で、ウェブサイトやデジタル製品のアクセシビリティ基準を義務付ける法律が追加されています。米国では、ウェブサイトのアクセシビリティに関する訴訟が着実に増加しており、2017年から2022年までに約14,000件の訴訟が起こされ、2022年だけでも3,000件以上に上ります。法的要件に関わらず、アクセシビリティは誰もが完全に社会参加できるインクルーシブな社会に不可欠です。そこで、Appleのアクセシビリティ機能が役立ちます。

過去のAppleのアクセシビリティ機能

Appleは2009年以来、すべての人にテクノロジーをアクセス可能にすることに取り組んできました。その年、彼らはVoiceOverを導入しました。これは、視覚障碍のあるユーザーがジェスチャーと音声フィードバックを使用してiPhoneを操作できる機能です。画面上の内容を読み上げることで、ユーザーがデバイスと対話しやすくなります。

__wf_reserved_inherit
図1。必要に応じてAppleのVoiceOver機能をカスタマイズできます。

それ以来、Appleはアクセシビリティ機能を継続的に改善および拡張してきました。画面を拡大するためのズーム、視覚的なコントラストを向上させるための色の反転、聴覚障害者向けのモノラルオーディオを導入しました。これらの機能は、さまざまな障害を持つユーザーがデバイスを操作する方法を大幅に改善しました。

過去に見られたAppleの主要なアクセシビリティ機能のいくつかについて詳しく見ていきましょう。

  • 色の反転: 色を反転させることで視覚的なコントラストを向上させ、特定の視覚障害を持つユーザーにとってテキストや画像を見やすくします。
  • モノラルオーディオ:ステレオサウンドを1つのチャンネルに結合し、片耳の難聴のユーザーがよりクリアにオーディオを聞くのに役立ちます。 
  • アシスティブタッチ:身体に障がいのあるユーザーが、カスタマイズ可能なオンスクリーンメニューを使用して、複雑なタッチジェスチャを実行するのを支援します。 
  • スイッチコントロール: 運動機能に障害のあるユーザーが、ヘッドマウントスイッチや吸引スイッチなどの外部スイッチを使用してデバイスを制御できるようにします。

Appleの視線追跡技術は、ユーザビリティをどのように向上させるか

手の動きが不自由な人でも、画面を見るだけで簡単にインターネットを閲覧したり、メッセージを送ったり、スマートホームデバイスを操作したりできるようになりました。これらの進歩により、日常生活がより管理しやすくなり、以前は困難だったタスクを自力で完了できるようになります。

Appleの今後のエキサイティングなアクセシビリティ機能のもう1つは、アイトラッキングであり、これを現実のものにします。身体の不自由なユーザー向けに設計されたアイトラッキングは、iPadおよびiPhoneでハンズフリーナビゲーションオプションを提供します。AIと前面カメラを使用して、ユーザーが見ている場所を認識することにより、ボタン、スワイプ、およびその他のジェスチャを簡単にアクティブ化できます。

__wf_reserved_inherit
Fig 2. 視線追跡を用いて、iPadに物理的に触れることなく操作する。

前面カメラは、数秒でアイトラッキングを設定および調整します。視線制御を使用すると、アプリの要素を操作し、目だけでボタンやスワイプなどの機能にアクセスできます。デバイスはオンデバイスの機械学習を使用してすべてのデータを安全に処理するため、ユーザーはプライバシーが保護されていると信頼できます。アイトラッキングは、追加のハードウェアやアクセサリを必要とせずに、iPadOSおよびiOSアプリ全体でシームレスに動作します。Apple Vision ProのVisionOSにも、簡単なナビゲーションのためのアイトラッキング機能が含まれています。

Apple Music Hapticsでビートを感じてください

ミュージック触覚は、まもなくリリースされるAppleのアクセシビリティ機能の1つです。iPhoneで音楽を体験するために、聴覚障がいのあるユーザー向けに設計されています。使用すると、Taptic Engineがオーディオと同期して、タップ、テクスチャ、洗練された振動を生成します。音楽のリズムとニュアンスを感じることができます。Taptic Engineは、音楽のフィーリングを捉えるために、さまざまな強度、パターン、振動の持続時間を生成できるため、非常に詳細です。

__wf_reserved_inherit
図3. Music Hapticsは、音楽をより身近なものにする。

ミュージック触覚は、聴覚に障がいのある人がこれまで不可能だった方法で音楽とつながることを可能にします。これにより、日々の生活の中で新たな体験の世界が開かれます。音楽を聴きながらランニングをしたり、友人と一緒に歌を楽しんだりすることが、共有された没入感のある体験になります。振動は、ワークアウトプレイリストのエネルギ―に合わせることで、エクササイズをより意欲的にしたり、お気に入りの瞑想曲で神経を落ち着かせたりするのに役立ちます。ミュージック触覚は、Apple Musicカタログにある数百万の楽曲をサポートしており、開発者向けのAPIとして利用できるようになるため、よりアクセシブルなアプリを作成できます。

Appleの音声ショートカットによる簡単な制御

Appleは、新しいアクセシビリティ機能のリストで、AIを使用して音声システムを改善するためにVocal Shortcutsを設計しました。これにより、iPhoneおよびiPadユーザーは「カスタム発話」を作成して、Siriがショートカットを起動し、複雑なタスクを管理できます。これは、脳性麻痺、ALS、または脳卒中のような状態の人々にとって特に役立ちます。

__wf_reserved_inherit
図4. Vocal Shortcutsは、高度な認識のためにAIを使用しています。

「非定型的な発話を聞く」機能は、オンデバイスの機械学習を使用して、さまざまな発話パターンを認識して適応し、メッセージの送信やリマインダーの設定などのタスクを容易にします。カスタム語彙や複雑な単語をサポートすることで、Vocal Shortcutsはパーソナライズされた効率的なユーザーエクスペリエンスを提供します。

Appleで車の利用をより身近に

また、乗客が旅行中により快適にデバイスを使用できるようにするための、Appleの新しいアクセシビリティ機能もいくつかあります。たとえば、Vehicle Motion Cuesは、移動中の車両の乗客の乗り物酔いを軽減するのに役立つ、iPhoneおよびiPadの新機能です。

乗り物酔いは、人が見ているものと感じているものとの間の感覚の不一致が原因で発生することが多く、移動中にデバイスを使用するのが不快になります。Vehicle Motion Cuesは、画面の端にアニメーション化されたドットを表示して、車両の動きの変化を表すことで、これに対処します。メインコンテンツを中断することなく、感覚の矛盾を軽減します。この機能は、iPhoneおよびiPadに内蔵されたセンサーを使用して、ユーザーが移動中の車両に乗っていることを検出し、それに応じて調整します。

__wf_reserved_inherit
図5. Vehicle Motion Cuesにより、デバイスを使用するすべての人にとって、長時間の車の移動がより快適になります。

CarPlayは、アクセシビリティを向上させるためのアップデートも行われました。ボイスコントロールにより、ユーザーは音声コマンドでCarPlayとそのアプリを操作できます。また、サウンド認識は、聴覚に障がいのあるユーザーに、車のクラクションやサイレンを知らせます。色覚特性を持つユーザーのために、カラーフィルタはCarPlayインターフェースの視覚的な使いやすさを向上させます。これらの機能強化は、すべての乗客が車内でより快適に過ごせるように役立ちます。

VisionOS向けのリアルタイムキャプション

Apple Vision Proはすでに、ユーザーがオーディオとビデオをフォローするのに役立つ字幕、クローズドキャプション、およびトランスクリプションのようなAppleのアクセシビリティ機能を提供しています。現在、Appleはこれらの機能をさらに拡張しています。新しいAI駆動のLive Captions機能により、誰もがリアルタイムで画面にテキストを表示することで、ライブ会話やアプリからのオーディオで話されているダイアログをフォローできます。これは、聴覚障碍のある人々にとって特に有益です。

例えば、VisionOSでのFaceTime通話中に、ユーザーは画面に書き起こされた発話されたダイアログを見ることができ、Persona(コンピューターで生成された仮想アバター)を使用して簡単につながり、共同作業を行うことができます。

AIは世界をよりアクセスしやすくしています。 

Appleのアクセシビリティへの取り組みと同様に、他の多くの企業もAIを活用してアクセシブルなソリューションを積極的に研究し、革新しています。たとえば、AI対応の自動運転車は、運転を容易にすることで、移動に不自由のある人々に自立性を提供できます。これまで、障がいのある人々は、手動制御、ステアリング補助、車椅子対応機能などの改造を施した特殊車両を使用して運転してきました。コンピュータビジョンのようなAI技術の統合により、これらの車両はさらに多くのサポートを提供できるようになりました。

__wf_reserved_inherit
Fig 6. コンピュータビジョンは、自動運転車の重要な要素です。

TeslaのAutopilotは、AI強化された運転支援の良い例です。高度なセンサーとカメラを使用して、障害物を検出し、交通信号を解釈し、リアルタイムのナビゲーション支援を提供します。これらのAI入力により、車両は車線内にとどまり、交通状況に応じて速度を調整するなど、さまざまな運転タスクを処理できます。コンピュータビジョンの洞察は、すべての人にとって運転体験をより安全でアクセスしやすくします。

AI主導のインクルージョンの新しい時代

これらの新しいAppleのアップデートにより、AI主導のインクルージョンの新しい時代が到来します。Appleは、アクセシビリティ機能にAIを統合することで、障害を持つ人々の日常業務を容易にし、テクノロジーにおけるインクルージョンとイノベーションを促進しています。これらの進歩は、さまざまな市場に影響を与えます。テクノロジー企業はインクルージョンの新たなベンチマークを設定し、ヘルスケアは障害を持つ個人の自立性の向上から恩恵を受け、家電製品はアクセシブルなデバイスに対する需要が高まるでしょう。テクノロジーの未来は、すべての人にとってシームレスなユーザーエクスペリエンスを創造することにあると考えられます。

最先端のAI開発に関する最新情報を得るには、GitHubリポジトリをチェックして、コミュニティに参加してください。AIが自動運転技術、製造業ヘルスケアなどをどのように変革しているかをご覧ください。

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる
クリップボードにコピーしました