通信人家园

标题: 当AI决策优于人类,我们为何会抗拒?  [查看完整版帖子] [打印本页]

时间:  2025-12-4 16:10
作者: tayun     标题: 当AI决策优于人类,我们为何会抗拒?


2015年,IBM把最先进的超级计算机系统Watson派去当医生。

这台机器学会了13种癌症(包括乳腺癌、肺癌、直肠癌等)的海量诊疗知识,能在几秒钟内读完一个病人的全部病历,然后进行多轮判断,最终输出内容丰富、高质量的治疗方案。听起来很美。但几年后,大量医疗合作伙伴放弃了这个项目,Watson Health也被IBM出售。

问题出在哪?不是算法不够聪明,而是它从一开始就没想明白一件事:医生不是来执行命令的。

类似的故事每天都在上演。某便利店创始人坚信“每一个有人的节点都会导致效率下降”,于是他投入了一整年的时间,用AI中央大脑接管了便利店从选址、订货、陈列到日常运营的全部决策。例如,开在学校旁的一家店,下午3点,小朋友即将放学,系统判定零食要被放到最显眼的地方。于是,店员收到指令,3点05分前必须把零食摆到门口,否则扣钱。结果呢?许多员工觉得缺乏成就感,自己就是个工具人,员工的不快乐也会传导给消费者,他们感受不到服务的温度。于是,不久后便利店便流失了不少顾客。

技术的指数级进化,与人类认知的线性增长之间,存在一条巨大的鸿沟。

这正是复旦大学管理学院卢向华教授在新书《AI革命:人机融合共生的五大法则》中要解决的核心问题:当AI越来越强,人该怎么办?企业又该怎么管?为此,她指出了人机融合共生的五大法则。

法则一:AI技术交互能力优化

人天然不信任黑箱。

学术上有个著名的“门卫问题”:夜店门卫可以用任何理由拒绝你,例如“你不该穿帆布鞋来”,但真实原因可能是肤色。你无从验证,因为在门外的你看不到店里面到底有没有人穿着帆布鞋。

算法也是一样。它可以轻易隐藏真实的决策依据。所以用户会本能地抗拒。

怎么破?三个关键词:拟人化、透明性、可靠性。

拟人化很好理解。当AI客服能识别你的情绪、用恰当的语调回应,你会觉得它不是冷冰冰的机器。研究显示,拟人化的AI更容易获得信任,甚至在服务失败时,用户也更愿意原谅它。

但这里有个陷阱:恐怖谷效应。当AI太像人,用户反而会产生恐惧和不安。更麻烦的是,高度拟人化的AI会让用户产生不切实际的期望——你长得像人,那你应该像人一样聪明吧?一旦期望落空,失望便会加倍。

所以正确的做法是:根据场景调整拟人化程度。处理简单查询的客服,低拟人化就够了;涉及复杂决策的金融顾问,需要高智能配合高拟人化;而涉及敏感信息的健康咨询,反而应该“智能但不拟人”——用户更愿意对一个明显是机器的对象袒露隐私,因为它不会嘲笑你。

透明性同样重要,但也不是越透明越好。有研究发现,当企业向员工披露AI绩效评分的使用方式后,被AI打低分的员工反而更不愿意努力——他们把低分当成了锚点。

可靠性则是底线。所有的拟人化和透明性都是锦上添花,只有可靠性才能决定用户会不会长期使用。谷歌的AI搜索功能上线后,有用户问怎么把芝士粘在披萨上,AI建议“加点胶水”——因为它从Reddit上学到了一个11年前的玩笑。结果这个功能的使用意愿暴跌到7%。

法则二:用户协作行为主动管理

用户对AI的态度,往往在两个极端之间摇摆。

一端是抗拒。有个有趣的实验:研究者设计了两组客服场景,服务人员完全一样,但一组告诉用户“这是真人”,另一组说“这是数字人”。结果呢?被标为数字人的那组,满意度低了10—15个百分点。明明背后也是真人在服务,用户就是不喜欢。

这叫“物种歧视”。人类对AI天然存在偏见,哪怕它表现得更客观、更公平。

另一端是过度依赖。2018年3月,美国亚利桑那州一辆配有安全员的Uber自动驾驶汽车撞死了一位骑自行车的人。警方随后分析发现,如果安全员一直专注道路,本可以在受害者前方12.8米处停下来。但他没有。因为他觉得有AI在,不会出大问题,自己可以完全放松。

这种现象叫“AI惰化”。当机器越来越能干,人就越来越想偷懒。GPS让人丧失方向感,计算器让人忘记心算,ChatGPT正在让创意变得同质化。有研究发现,使用GPT的用户在前五天创意能力显著提升,但到第七天关闭GPT后,创意水平直接回落到原点——而且同质化的倾向还保留了下来。

企业需要主动管理这两种极端。对于抗拒,可以增加技术的社交属性,让AI不只是工具,而是“伙伴”;对于惰化,可以通过延迟展示AI建议、要求用户先提交自己的判断等方式,强制用户动脑。

有个医学影像诊断的实验很有意思:当医生被要求在看到AI建议之前先提交自己的初步判断时,他们与AI的盲从率显著下降,决策质量反而提高了。

法则三:人机互补,1+1>2的秘密在于分工

回到开头那个便利店的故事。它的对立面是什么?

一家大药房。他们也用AI,但用法不同。药师输入病症后,AI推荐主药、辅药和关联用药,药师可以采纳,也可以自己搜索。最后统计发现:完全依赖AI的订单、完全靠药师自主搜索的订单、人机协作的订单,比例大约是20%、37%、43%。

哪组效果最好?人机协作组。推荐药品数最多,消费者接受度也最高。

这说明什么?AI的价值不会自动实现。它需要人来激活。

关键是分工。任务可计算性高的,让AI主导;任务主观性强、需要同理心的,让人主导;复杂任务则需要人机协同。比如电话营销,AI负责打电话、收集信息、筛选意向客户,人类销售负责深度沟通、促成交易。研究发现,这种分工能显著提升人类销售的创造力。

更进一步,人和AI还需要互相学习。AI通过机器学习不断提升,人通过与AI协作不断成长,形成螺旋上升的循环。清华大学的研究者提出了“AI力”的概念——个体在AI时代所需的能力框架。好消息是,这种能力是可以培训的。

法则四:组织AI管理策略适配

AI不只改变个人,也在重塑组织。

世界经济论坛预测,五年内AI将使工作岗位净减少1400万个,但长期来看,会创造约12%的新增岗位。关键是:被取代的人,并不能轻易获得新岗位。

这意味着企业需要重新设计岗位、重新培训员工、重新分配责任。

尤其是责任。当AI参与决策,出了问题谁负责?目前法律不承认AI是责任主体,但企业不能因此逃避管理责任。有些平台直接在界面上写“该结果由AI自动生成,仅供参考”,这种做法短期规避了风险,长期却在摧毁用户对AI的信任。

更好的做法是:让AI展现“愿意负责”的姿态。卢老师自己的研究就发现,当AI医生主动指出用户的医疗常识错误时,用户反而觉得它更负责任、更愿意使用。这种“主人翁精神”的行为设计,比免责声明有效得多。

法则五:AI社会公平性保障

算法偏见无处不在。亚马逊的招聘算法会自动降低包含“女子”字样简历的权重;ImageNet数据库里,“失败者”“犯罪分子”这样的标签,反映的是标注者的偏见;大数据杀熟,则是算法在“合法”地歧视老用户。

问题出在哪?训练数据有偏差,算法设计有漏洞,优化目标有缺陷。

解决方案是多管齐下。比如,在技术上,改进数据采集、增强算法透明性、引入公平性约束;在企业层面,建立AI伦理准则、设立审查委员会;在社会层面,完善法律法规、加强行业自律。

这不仅是技术问题,更是价值观问题。

尾声

正如刘易斯·芒福德在《技术与文明》中所言:“所有伟大的物质发明背后,不仅是技术的演进,更有思想的转变。”

每一次技术革命,都伴随着人与技术的博弈。蒸汽机时代如此,互联网时代如此,AI时代也不例外。但博弈的终点,从来不是谁取代谁,而是如何共生。

这本书提供的五大法则——交互能力优化、用户行为管理、人机互补增强、组织策略适配、社会公平保障——不是让你对抗AI,而是让你学会如何与AI共舞。毕竟,AI的价值,最终要靠人来实现。


来源:36kr





通信人家园 (https://www.txrjy.com/) Powered by C114