
整理 | 华卫
刚刚,苹果宣布与脑机接口 (BCI) 公司 Synchron 合作,共同开发一款内置的电极可读取大脑信号的植入式设备。这项技术使苹果能够将这些信号转化为操作指令,例如在 iPhone、iPad 和 Apple Vision Pro 屏幕上选择图标,“无需身体移动或语音指令”。
据外媒报道详,苹果与 Synchron 公司为开发这种新型技术通信形式而与早期测试者开展合作。匹兹堡居民 Mark Jackson 患有肌萎缩侧索硬化症(ALS),他植入了 Synchron 公司名为 Stentrode 的脑机接口装置——这是一种“类似支架的设备,被植入大脑运动皮层上方的血管中”,“能有效地将脑电波转化为指令,使用户能够在屏幕上导航并选择图标”。
在使用与 Stentrode 连接的 Apple Vision Pro 时,Jackson 能够虚拟地“俯瞰瑞士阿尔卑斯山的悬崖边缘,并感觉自己的双腿在颤抖”,尽管他有限的运动功能使他无法站立。 不过,这项突破性技术仍处于早期阶段。Jackson 解释说,他“无法用它来模拟用鼠标移动光标或用手指操作触摸屏,因此导航速度比与电脑或智能手机的正常交互慢得多”。
但这对残障人士群体来说是一项重大的无障碍技术进展。Synchron 声称自己是“第一家实现与新型脑机接口人机接口设备(BCI HID)配置文件原生集成的脑机接口公司”。埃隆·马斯克的 Neuralink 也在开发具有类似功能的神经技术,其 N1 芯片于 2024 年初首次植入人体,马斯克称该受试者成功用思维控制了光标。
尽管脑植入物能让人用思维控制设备已令人惊叹,但 AI 可能将其推向新高度。
最近,苹果还在无障碍领域取得了其他进展,包括为语言能力丧失者开发的“个人语音”功能,该功能将在即将发布的 iOS 19 中升级。有外媒报道,苹果“今年还将改进其与动作相关的无障碍工具,包括更快的眼球和头部追踪输入功能,以及减少 Mac 用户晕车感的技术”。
当考虑这项技术如何与 AI 生成的个人语音克隆相结合时,其潜力变得更加巨大。苹果的“个人语音”功能允许用户录制自己的语音样本,这样即使他们失去说话能力,也能生成听起来仍然像自己的合成语音。虽然这种合成语音与真实声音尚未完全无法区分,但已非常接近,且比老电影和电视节目中常见的机械模仿更具人性化。
目前,这些语音由触摸、眼球追踪或其他辅助技术触发。但通过脑机接口(BCI)集成,同样的用户可以通过“思考”来激活自己的语音。他们只需有说话的意图,系统便会完成剩下的工作。试想,一位肌萎缩侧索硬化症(ALS)患者不仅能用思维操作 iPhone,还能通过同一设备“输入”语句,让合成语音克隆代其发声,从而重新“开口说话”。
参考链接:
https://mashable.com/article/apple-synchron-thought-controls
评论