马斯克又放狠线年后AI就能让所有医生失业真没必要再学医了

主持人向他提问 :特斯拉的 Optimus 人形机器人,啥时候能超过全世界最好的外科医生?
接着还补了一句:所有人都能得到比现在的总统更好的治疗,学生们也没有必要再去上医学院了,毫无意义(pointless),除非你纯纯把这当爱好。
Optimus 最早在 2021 年亮相,是特斯拉推出的一款通用人形机器人,用于「替代人类完成危险、重复、繁重或人类不愿做的任务」,这几年一直是马斯克反复提及的重点产品之一,地位堪比「我家子涵」。
一定程度的自主性:能完成预先定义好的任务流程,但通常需要人工监控或干预。
也就是说,Optimus 现在的「聪明」,更多体现在会动,而不是会作出判断。
它在展示中主要对标的也都是通用用途任务(如搬运、拾取),不具备任何形式的专业任务自治能力(比如医疗手术、精密配置等)。
顺便提一句,不到半年前的 2025 年 10 月,马斯克还在财报电话会上遗憾宣布当年量产 Optimus 计划彻底泡汤。
Optimus 机器人的灵巧手基本已经是行业最精密的,但在训练分拣快递时,这双手的寿命只够用 6 周,而单纯制作一只手的成本就超过 6000 美元。
马斯克的原话是:「要造出一只像人手一样灵巧和干练的手,是一件非常困难的事情」。
这样看来,马斯克所说的三年超越五年碾压,目前大概还处于八字没一撇的状态,这信誉分可能连充电宝都借不出来。
如果我们按照机器人的发展程度简单分为 5 级,目前临床大多数停留在 1~2 级,少数研究接触到了 3 级。(注意:这里我们只是方便理解做的简单分级,不是实际应用的分级方式)
这是目前手术室见到的绝大多数机器人类型,最典型的就是大家都熟悉的达芬奇,类似于「更灵活、更稳、更符合人体工学的手」,但决策与动作仍由人实时控制。比如 CMR Surgical 的 Versius 系统,拿到的手术适应证也明确属于「辅助(assist)」范畴。
目前包括训练让 AI 看懂手术流程、识别手术阶段,让 AI 观看手术视频生成术后记录等。
这个阶段的 AI 可以完成特定的手术步骤,但真实临床的出血、体位变化、突发解剖变异、团队协作……都无法解决。
这类目前仍以实验和动物器官为主,通过用更大规模的手术视频与更强的模型,让机器人学习更复杂的任务序列。
比如 Axios 报道的约翰霍普金斯团队用类似大模型的学习范式,让机器人从手术视频中加速学习基本手术任务(针操作、提拉组织、缝合等)。再比如 Guardian 报道 AI 训练的机器人在身上完成「胆囊切除」等多步骤任务。
这就是马斯克的终极畅想了:一个系统在没有外科医生实时操控下,完成完整手术、处理突发、并在结局上整体更优。
如果站在马斯克的认知模型里,这样的想法并不突兀。因为在他眼里,外科手术是一个高度依赖手眼协调、可被数据化与传感器捕捉、最终被闭环控制系统优化的过程。
这和 Optimus 的目标「在真实世界中完成精细、复杂、可重复的物理操作」是一致的。
他说的取代,更像是工程师语境里的:在性能指标上超过人类,而不是医学语境里的:承担完整医疗责任与临床决策。
也就是说,外科医生很大一部分工作内容被忽略了,这也正是临床最关键的工作内容:
手术指征看起来都写在指南里,有影像、有检验、有评分系统,有结构化指标、有推荐路径、有风险分层模型,在很多AI 路线图里,「术前评估自动化」也总是被放在前排。
但外科医生都知道:真正困难的不是「符合不符合指征」,而是「要不要现在做」。
这中间包含大量隐ued体育性判断:影像和真实解剖的偏差、患者的耐受性与真实期望、患者的经济能力和配合能力、合并症发生的理论风险和现实风险……
这些判断往往无法完全写进流程,却决定了手术是不是正确的选择。AI 很容易学会是否符合条件,却很难学会什么时候该「退一步」。
真实手术中,外科医生必须时刻思考:这个层面是不是该继续分离?出血是技术问题,还是策略错误?现在是补救,还是止损?如果继续做,患者的整体风险会不会增加?
在很多 AI 设想中,术后管理常被视为:按路径走,按指标监测,按并发症算法处理。
这看起来非常适合自动化,但在外科世界里,真正棘手的并发症从不按教科书来。
比如指标还没到异常阈值,但医生已经需要提预案;患者主诉模糊,让你直觉不对劲;多系统问题叠加,无法归因到单一并发症;家属焦虑、病人配合差,风险被放大……
AI 非常擅长处理已经发生的问题,但对正在形成、尚未命名的危险极其迟钝。外科医生术后关键的能力,就是提前识别失控趋势,主动干预,减少并发症的发生。
AI 可以预测并发症概率,可以给出风险区间,可以提供统计意义上的最优选择。
但它不能在结果不理想时面对患者,在法律、伦理、心理层面承受压力,更别提所有医生都知道的深刻教训:患者是会「骗人」的。
医疗决策从来不是纯粹的「预测」问题,而是「谁来为这个选择站出来」的问题。
