苹果配合全球辅助使用意识日公布诸多认知、言语及视觉等辅助新功能

因应即将来到的全球辅助使用意识日,苹果宣布针对认知、言语和视觉等辅助使用需求推出全新软体功能,其中包含针对认知功能辅助的「Assistive Access」,以及包含「Live Speech」、「Personal Voice」在内的声音辅助功能,另外也包含在「放大镜」功能增加的「Point and Speak」,预计会在今年稍晚时候正式推出。

-

此次推出功能,主要针对认知、视觉、听觉和行动方面需求提供辅助,藉由软硬件整合与装置端机器学习等技术应用,让使用者能通过iPhone等装置获得更好辅助效果。

其中,「Assistive Access」功能结合电话与FaceTime功能,其中整合「通话」及客制化的「消息」、「相机」、「照片」和「音乐」等App,让使用者能以高对比按键、大型文字标签等视觉导向界面设计,让使用者能更方便使用通话与视讯功能,或是通过只有表情符号的键盘快速传递内心情感,另外也能快速通过相机录制视频与亲友分享消息。

-

而在iPhone、iPad及Mac上的「Live Speech」功能,使用者可通过打字写下想说的话,让装置在电话或FaceTime通话,以及现场对话进行期间通过装置朗诵这些文字。 用户也能将常用语句预先存放,即可在合适时候轻敲,即可在与亲朋好友和同事的即时对话中快速套用,让瘖哑人士或逐渐丧失言语能力的用户能方便使用。

另外,针对可能失去言语能力的用户,例如罹患肌萎缩性脊髓侧索硬化症 (ALS),或是其他会逐渐侵蚀说话能力的疾病患者,「Personal Voice」可以通过读出一系列随机文本提示,在iPhone或iPad上录制15分钟长度音频,即可以装置端机器学习方式创造个人语音内容,并且能与「Live Speech」结合, 通过iPhone或iPad协助发声。

-

至于「放大镜」中的「Point and Speak」功能,则可让视觉障碍使用者能更轻易地与拥有数个文字标签的实际物体互动。 举例来说,使用微波炉等家电时,「Point and Speak」会结合「相机」与激光雷达感测元件进行输入,配合装置端上的机器学习效果,可在用户手指于数字键盘上移动时,根据其位置朗诵出按键上的文字。

「Point and Speak」内置于iPhone和iPad的「放大镜」App,并且能结合「人物侦测」、「门侦测」和「图片描述」等其他「放大镜」功能使用,藉此协助视觉障碍者掌握周遭环境。

其他功能如下:

• 失聪或重听的用户可以直接将Made for iPhone助听装置与Mac配对,并且自订这些装置,以创造舒适聆听环境。

• 「语音控制」在文字里加入拼音建议,让通过语音打字的用户能够在「do」、「due」和「dew」等类似读音中选出正确的字词。

• 使用「切换控制」的身体和运动障碍用户可以将任何切换控制项化为虚拟游戏控制器,以在 iPhone 和 iPad 上游玩他们最爱的游戏。

• 针对低视能用户,Finder、「消息」、「邮件」、「行事历」和「备忘录」等Mac App 中的「文字大小」变得更容易调整。

• 对快速动画反应敏感的用户可以自动在「消息」和 Safari 上把内有移动物品的的图像暂停,例如 GIF 等。

• 对「旁白」用户来说,Siri语音听起来愈发自然且富于表达情感的力量,纵使高语速状态下回馈仍然正面; 用户也可以在0.8倍速到2.0倍速之间进行选择,并且自定义Siri对讲话时的语速。

(0)
老哥老哥

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注