Apple 软体辅助使用新功能 导入装置端机器学习
苹果公司(Apple)16日在官网发文,预览认知、视觉、听觉和行动方面的软体辅助使用功能,以及专为瘖哑人士或可能失去言语能力的人打造的创新工具,将于今年稍晚推出。
苹果指出,这些更新仰赖软硬体方面的进步,其中包括装置端机器学习,既可确保使用者隐私,也能拓展苹果一直以来为所有人打造产品的承诺。
在今年稍晚,认知功能障碍的使用者将可透过Assistive Access功能,让App和各项体验去芜存菁,留下最基础的核心功能,借此更轻松、独立地使用iPhone和iPad;瘖哑人士将能在通话和对话时,以Live Speech功能将打字化为语音。
可能失去言语能力的使用者,可以利用Personal Voice功能打造与他们声音类似的合成语音,与亲朋好友连结。使用者可以透过读出一系列随机文本提示,在iPhone或iPad上录制15分钟的音讯,以创造出一个Personal Voice。这项语音辅助使用功能利用装置端机器学习,确保使用者的资讯私密而安全。
针对失明或低视能的使用者,「放大镜」中的「侦测模式」带来Point and Speak功能,可辨识使用者所指向的文字并进行朗诵,协助他们与家电等实体物品进行互动。
苹果执行长库克(Tim Cook)表示,苹果一直都相信最棒的技术,就是为所有人而打造的技术。今天分享多项新功能,奠基于苹果长久以来在技术无障碍化方面的努力,让每个人都有机会能够创造、沟通,并做自己热爱的事。
本新闻授权来自中央通讯社 cna.com.tw
.