Apple 宣布了新的人工智能辅助功能,例如眼动追踪、音乐触感和语音快捷方式,可提供无缝的用户体验。

Apple 宣布了新的人工智能辅助功能,例如眼动追踪、音乐触感和语音快捷方式,可提供无缝的用户体验。
2024 年 5 月 15 日,Apple 宣布 即将推出一系列 iOS 18 更新,重点关注辅助功能。新的 Apple 更新计划于今年晚些时候发布,包括眼动追踪、触感音乐和语音快捷方式等创新功能。
这些 Apple 辅助功能使行动不便、失聪或视力障碍以及有语言障碍的人们可以更轻松地使用 Apple 设备。Apple 芯片、人工智能 (AI) 和机器学习是这些功能背后的技术进步。让我们来探索 Apple 的新功能及其将对日常生活产生的影响。
作为一个社会,我们需要确保我们的技术进步对每个人都具有包容性。使技术具有可访问性可以改变许多人的生活。例如,技术是当今任何工作的重要组成部分,但难以访问的界面可能会为残疾人士造成职业障碍。研究表明,2018 年残疾人的失业率几乎是没有残疾人的两倍。
法律系统也在讨论使技术具有可访问性的问题。许多国家/地区都增加了法律,强制要求网站和数字产品的可访问性标准。在美国,与网站可访问性相关的诉讼一直在稳步增加,从 2017 年到 2022 年,提起了大约 14,000 起网站可访问性诉讼,仅 2022 年 就超过了 3,000 起。无论法律要求如何,可访问性对于每个人都可以充分参与的包容性社会至关重要。这就是以下 Apple 辅助功能发挥作用的地方。
自 2009 年以来,Apple 一直致力于让每个人都能使用技术。那一年,他们推出了 VoiceOver,这项功能允许盲人和视障用户通过手势和语音反馈来操作他们的 iPhone。通过读出屏幕上的内容,使用户可以更轻松地与他们的设备互动。
从那时起,Apple 不断改进和扩展其辅助功能。他们推出了用于屏幕放大的 Zoom、用于更好视觉对比度的反转颜色以及用于听力障碍人士的单声道音频。这些功能大大改善了各种残疾用户与设备互动的方式。
以下是过去我们看到的一些关键 Apple 辅助功能的详细介绍:
手部活动不便的人现在只需看着屏幕,就可以轻松浏览互联网、发送消息,甚至控制智能家居设备。这些进步使他们的日常生活更易于管理,使他们能够独立完成以前觉得困难的任务。
另一项令人兴奋的 Apple 即将推出的辅助功能是眼动追踪,它使这一切成为现实。眼动追踪专为有身体残疾的用户设计,在 iPad 和 iPhone 上提供免手动导航选项。通过使用 AI 和前置摄像头来识别您的视线位置,它可以让您毫不费力地激活按钮、滑动和其他手势。
前置摄像头可在几秒钟内设置和校准眼动追踪。您可以使用停留控制与应用程序元素互动,仅用眼睛即可访问按钮和滑动等功能。用户可以相信他们的隐私受到保护,因为设备使用设备上的机器学习安全地处理所有数据。眼动追踪可在 iPadOS 和 iOS 应用程序中无缝工作,无需额外的硬件或配件。Apple Vision Pro 的 VisionOS 也包含眼动追踪功能,便于导航。
音乐触感是 Apple 即将发布的另一项辅助功能。它专为失聪或听力障碍的用户设计,让他们可以在 iPhone 上体验音乐。使用时,Taptic Engine 会生成与音频同步的点击、纹理和精细振动。您可以感受到音乐的节奏和细微差别。这非常深入,这要归功于 Taptic Engine 产生各种强度、模式和持续时间的振动来捕捉音乐感觉的能力。
音乐触感可以将听力障碍人士与以前不可能的方式连接到音乐。这开启了他们日常生活中各种体验。一边跑步一边听音乐或与朋友一起欣赏歌曲成为一种共享和身临其境的体验。振动可以匹配锻炼播放列表的能量,使锻炼更具动力,或者通过最喜欢的冥想曲调帮助平静神经。音乐触感支持 Apple Music 目录中的数百万首歌曲,并将作为开发人员的 API 提供,允许他们创建更易于访问的应用程序。
Apple 设计了语音快捷指令,以使用 AI 改进新辅助功能列表中的语音系统。它允许 iPhone 和 iPad 用户创建“自定义发声”,以便 Siri 可以启动快捷指令并管理复杂任务。这对于患有脑瘫、ALS 或中风等疾病的人特别有帮助。
“听取非典型语音”功能使用设备上的机器学习来识别和适应不同的语音模式,从而使发送消息或设置提醒等任务更容易。通过支持自定义词汇和复杂单词,语音快捷指令提供个性化和高效的用户体验。
还有一些新的 Apple 辅助功能可以帮助乘客在旅途中更舒适地使用他们的设备。例如,车辆运动提示是 iPhone 和 iPad 的一项新功能,可帮助减少移动车辆中乘客的晕动病。
晕动病通常是由于人看到的东西和他们感觉到的东西之间的感觉不匹配而发生的,这使得在运动中使用设备时感到不舒服。车辆运动提示通过在屏幕边缘显示动画点来表示车辆运动的变化来解决这个问题。它减少了感觉冲突,而不会中断主要内容。此功能使用 iPhone 和 iPad 中的内置传感器来检测用户何时在移动车辆中并进行相应调整。
CarPlay 也进行了一些更新,以增强其辅助功能。“语音控制”允许用户通过语音命令操作 CarPlay 及其应用程序,而“声音识别”则会在失聪或听力障碍人士听到汽车喇叭和警笛时发出警报。对于色盲用户,“颜色滤镜”提高了 CarPlay 界面的视觉可用性。这些增强功能有助于让所有乘客在乘车过程中更加舒适。
Apple Vision Pro 已经提供了 Apple 的辅助功能,如字幕、隐藏式字幕和转录,以帮助用户理解音频和视频。现在,Apple 正在进一步扩展这些功能。新的 AI 驱动的“实时字幕”功能允许所有人通过在屏幕上实时显示文本来理解实时对话和应用程序中的音频。这对失聪或听力障碍人士尤其有益。
例如,在 VisionOS 中的 FaceTime 通话期间,用户可以看到屏幕上转录的对话,从而更轻松地使用他们的 Persona(计算机生成的虚拟化身)进行连接和协作。
与 Apple 在辅助功能方面的举措类似,许多其他公司也在积极研究和创新,利用人工智能来创建辅助解决方案。例如,支持人工智能的 自动驾驶汽车 可以让行动不便的人更容易驾驶,从而获得独立性。到目前为止,残疾人士一直能够使用经过专门改装的车辆驾驶,这些车辆配备了手动控制、转向辅助和轮椅可访问功能等改装。随着计算机视觉等人工智能技术的集成,这些车辆现在可以提供更多支持。
特斯拉的 Autopilot 是人工智能增强驾驶辅助的一个很好的例子。它使用先进的传感器和摄像头来检测障碍物、解释交通信号并提供实时导航辅助。借助这些人工智能输入,车辆可以处理各种驾驶任务,例如保持在车道内并根据交通状况调整速度。计算机视觉洞察力使驾驶体验更安全,更易于所有人使用。
通过这些新的 Apple 更新,我们正在迎来人工智能驱动的包容性的新时代。通过将人工智能集成到其辅助功能中,Apple 正在使残疾人的日常任务变得更加轻松,并促进技术领域的包容性和创新。这些进步将影响各个市场:科技公司将设定新的包容性基准,医疗保健 将受益于残疾人独立性的提高,并且 消费电子产品 将看到对辅助设备的更高需求。技术的未来很可能涉及为每个人创造无缝的用户体验。
查看我们的 GitHub 存储库 并加入我们的 社区,以随时了解前沿的人工智能发展。了解人工智能如何重塑自动驾驶技术、制造业、医疗保健等领域。