以太坊联合创始人 Vitalik Buterin 近日在 X(原 Twitter)发文,直言当前人工智慧(AI)开发过度追求「自主性」,忽视了人类在决策与输出过程中的价值。他呼吁业界应增加人类输入路径,推动具备编辑功能的开放权重模型,并提出结合 脑机介面(BCI) 实现即时反馈与调整的构想,为 AI 发展描绘出更以人为本的蓝图。### **拒绝「全自动代理型」AI,强调人类参与**Vitalik 表示,当前 AI 领域盛行的「代理型」系统,试图在极少人工监督下自主完成任务,这种趋势让他感到沮丧。他认为,人类输入不仅能提升输出品质,还能显著增强安全性。他特别偏好具备「编辑功能」的开放权重模型,允许开发者与用户在生成过程中即时干预、修正或引导输出,而非只能从零开始创建结果。### **与 Karpathy 观点呼应:AI 需要「可控性」**Vitalik 的观点与前特斯拉 AI 负责人 Andrej Karpathy 近期的演讲不谋而合。Karpathy 警告,不应将大型语言模型视为完全可靠的自主代理,并强调人类监督、谨慎提示与渐进式开发的重要性。这一思路正在引领业界转向「人机协作」模式:1、提供更直观的编辑介面2、支援生成过程中的即时修剪与校正3、减少幻觉与偏差,确保输出符合人类意图与安全标准### **脑机介面(BCI)+ AI:即时反馈的未来构想**Vitalik 更进一步提出,中期愿景是结合 BCI 技术,让 AI 在生成内容时能即时感知用户的情绪反应,并根据喜好自动调整输出。这一构想并非空谈:1、Neuralink、Synchron 等公司已启动人体试验与微创植入2、基于脑电图(EEG)的可穿戴设备正尝试解码注意力与情绪状态3、学术界在「情绪运算」与情绪标记技术上取得进展4、虽然非侵入式情绪解码仍具挑战,但技术发展正让这一愿景逐步接近现实。### **开放权重与安全性:双刃剑的辩论**近期,OpenAI 意外释出 gpt-oss-120b 与 gpt-oss-20b 等开放权重模型,引发热议。支持者认为,这有助于民主化 AI 开发,让团队更容易建立以人为本的工作流程并检测安全风险;但批评者担心,强大模型的广泛分发可能带来滥用风险。Vitalik 的立场明确:更好的输出与更安全的系统,来自将人类偏好与复杂信号置于 AI 工作流程的核心。### **结语**Vitalik Buterin 的发声,反映了 AI 发展中的一场核心辩论:是让模型完全自主,还是让人类保持即时掌控?随着开放权重模型、脑机介面与情绪侦测技术的进步,人机协作的可能性正快速扩展。未来的 AI 或许不再是「替你做决定」的黑箱,而是能与你并肩创作、即时互动的智慧伙伴。
Vitalik 爆料 AI 未来蓝图:拒绝全自动,推崇人类即时掌控与脑机介面
以太坊联合创始人 Vitalik Buterin 近日在 X(原 Twitter)发文,直言当前人工智慧(AI)开发过度追求「自主性」,忽视了人类在决策与输出过程中的价值。他呼吁业界应增加人类输入路径,推动具备编辑功能的开放权重模型,并提出结合 脑机介面(BCI) 实现即时反馈与调整的构想,为 AI 发展描绘出更以人为本的蓝图。
拒绝「全自动代理型」AI,强调人类参与
Vitalik 表示,当前 AI 领域盛行的「代理型」系统,试图在极少人工监督下自主完成任务,这种趋势让他感到沮丧。他认为,人类输入不仅能提升输出品质,还能显著增强安全性。
他特别偏好具备「编辑功能」的开放权重模型,允许开发者与用户在生成过程中即时干预、修正或引导输出,而非只能从零开始创建结果。
与 Karpathy 观点呼应:AI 需要「可控性」
Vitalik 的观点与前特斯拉 AI 负责人 Andrej Karpathy 近期的演讲不谋而合。Karpathy 警告,不应将大型语言模型视为完全可靠的自主代理,并强调人类监督、谨慎提示与渐进式开发的重要性。
这一思路正在引领业界转向「人机协作」模式:
1、提供更直观的编辑介面
2、支援生成过程中的即时修剪与校正
3、减少幻觉与偏差,确保输出符合人类意图与安全标准
脑机介面(BCI)+ AI:即时反馈的未来构想
Vitalik 更进一步提出,中期愿景是结合 BCI 技术,让 AI 在生成内容时能即时感知用户的情绪反应,并根据喜好自动调整输出。
这一构想并非空谈:
1、Neuralink、Synchron 等公司已启动人体试验与微创植入
2、基于脑电图(EEG)的可穿戴设备正尝试解码注意力与情绪状态
3、学术界在「情绪运算」与情绪标记技术上取得进展
4、虽然非侵入式情绪解码仍具挑战,但技术发展正让这一愿景逐步接近现实。
开放权重与安全性:双刃剑的辩论
近期,OpenAI 意外释出 gpt-oss-120b 与 gpt-oss-20b 等开放权重模型,引发热议。支持者认为,这有助于民主化 AI 开发,让团队更容易建立以人为本的工作流程并检测安全风险;但批评者担心,强大模型的广泛分发可能带来滥用风险。
Vitalik 的立场明确:更好的输出与更安全的系统,来自将人类偏好与复杂信号置于 AI 工作流程的核心。
结语
Vitalik Buterin 的发声,反映了 AI 发展中的一场核心辩论:是让模型完全自主,还是让人类保持即时掌控?随着开放权重模型、脑机介面与情绪侦测技术的进步,人机协作的可能性正快速扩展。未来的 AI 或许不再是「替你做决定」的黑箱,而是能与你并肩创作、即时互动的智慧伙伴。