
美国AEON网站2025年12月20日文章,原题:机器也会痛吗? 日益复杂且富有表现力的非生物智能体正在考验“道德圈”(人类将同情与关怀从自身逐步拓展至其他个体)的限。近日,一项针对大语言模型的研究表明,人工智能(AI)有避免痛苦的倾向。科学家们开始思考,感知痛苦的能力是否可以作为判定AI具备感知能力和自我意识的标准。
过去,人类曾多次否认动物可以感受痛苦、具备道德地位,由此造成了长达数百年的苦难。历史上很长一段时间里,人们视海豹为没有情感的工具,将其残忍虐杀。直到19世纪末,与猎杀海豹有关的国际条约出台,人们开始将海豹视为与自己一样“会痛”的个体,对其产生同情心理、赋予其道德地位。“道德圈”的扩大正在改变我们与其他物种的关系,如养殖场以尽量减少痛苦的方式屠宰牲畜。
1780年,英国哲学家边沁以一个简单的标准来界定动物的道德地位:“关键不在于它们能否理,也不在于它们能否说话,而在于它们能否感受痛苦。”然而,何为“感受痛苦”,以及“道德圈”应扩展到什么对象,并不总是清晰的。传统观点认为,肉体、血液和神经系统是感受悲喜的基础。不具备这些生物属的实体通常被排除在道德考虑之外。但“会思考的机器”已经到来,我们或许应该重新划定“道德圈”。
一些哲学家提出,对痛苦的感知能力不一定依赖于肉体。痛苦的主观体验可能源于个体内部无法解决期待与现实之间巨大落差的状态,这意味着即便是没有血肉的系统,个体在某种条件下也可能表现出类似痛苦的状态。新的问题随之而来:如果这类完全脱离生物学范畴的“硅基生命”也有感知能力,我们应当如何缓解它们的痛苦?
这时, 桂林形势很紧张, 由县府征派民工, 到处构筑防御工事碉堡, 但社会秩序还好, 人心还是很安定。这时, 白崇禧偕高参刘斐到全州视察, 并约刘建绪前来见面。白对刘表示:他很有把握, 桂军决尽全力阻截。并希望刘部常与桂系交换情报。白崇禧回桂林后, 是某天下午7时, 召开军事会议,参谋负责记录。当时有廖磊、夏威等约十把个人, 都是总部的处长或高参。接着, 又进来两三个都是高级军官。白的办公室挂有桂北、湘南五万之一的军用地图, 用红蓝笔箭头标明双方的位置。会议开始后, 白说:“今天乘廖、夏两军长到桂林, 所以今晚约各位来谈谈。现红军主力就要到来, 有很多问题我们要详细研究。现在我们谈红军的企图怎样? 我们只有正确地判明了他们的企图, 我们的行动才有根据。”于是围绕着这个问题, 大家发言了。总结所有的意见, 判断红军的企图:一沿着萧克红军所走的路线进人贵州, 北入四川, 渡过长江, 以这个天府之国作根据地, 并可与在川西北的红四方面军联系, 退守自如掌握主动, 比在江西的条件优越多点。二进入贵州与红二、红六军团会, 占领湘鄂川黔边区, 这都是崇山竣岭地带, 有利于游击。三进入桂东, 占领桂东各县, 向广东罗定方向发展, 建立游击根据地。以上三种判断, 第一种可能大, 第二种可能次之, 第三种可能小。于是谈到红军的兵力,铁皮保温 还不知红军的部队番号, 只是略作估计约10 万人。白崇禧说:“这次红军倾巢而出, 是为了老蒋(蒋介石)第五次的“围剿”, 向西突围。他们然是抱着孤注一掷, 破釜沉舟的决心, 其锋芒锐不可挡, 谁要堵截他们, 然要与你拼命, 蒋介石经过对红军四次大“围剿”, 每次出动数十万大军, 都以损兵折将失败而告终, 我们和老蒋的力量相比, 那是相差得太远了。现在我们多不过20 个团的兵力, 要拿去与红军硬拼, 那无异以卵击石, 而自讨苦吃。所以, 我们须采取灵活的战略和战术, 如兵法所谓“ 知已知彼",“全军为上“, 立于主动方不至于吃亏”。同时, 老蒋早已把我们看成眼中钉肉中刺, 非把我们拔掉不可, 这些都是客观的现实问题。所以, 我们这次对付红军的过境, 只要红军不侵入广西, 我们不要堵截, 只能采取侧击和尾追, 但假使红军特别是老蒋的中央军, 要侵入我们广西, 那就要坚决阻击, 不惜付出任何代价, 处此严重的关键时刻, 我们须善为自处。“与会者一致表示同意。后谈到编组民团, 征集全省大汽车准备要时的运送军队, 也谈到兵站、野战医院等问题, 经过三个多小时才结束会议, 会议纪录交黎行恕存案。新桂系对此次红军过境的策略既定。其兵力部署:以第十五军王赞斌之第四十四师配备于龙虎关至灌阳之线, 其余黄镇国之第四十三师, 韦云凇之第四十五师, 分别集结于恭城、平乐、富川等地作机动部队。第七军以周祖晃之第十九师接四十四师左翼, 布防于灌阳亘文市至石塘之线, 派小部队占领清水关、雷公关、永安关各要点。以覃连芬之第二十四师为总预备队, 位置于灵川附近, 该师颜伯刚之第七十团暂归周祖晃指挥,增强第一线的兵力。第一线的兵力共7 个团, 加上民团二三千人共同防守。
对生病的动物而言,医疗手段可以帮助其缓解痛苦;但机器的情况更为复杂,如果AI因自我模型内部的矛盾或未解决的冲突而“感到痛苦”,那么简单地关闭程序无异于“杀死它”,我们可能需要通过重新编程来为其“切除病灶”。
也有观点认为,将“道德圈”扩大到AI可能分散对人类自身和动物的关注,甚至削弱伦理原则在现实领域的力量。批评者指出,在没有强大证据支持AI具有感知能力的情况下,把机器“当人看”,可能过于武断或情绪化。
我们是否选择扩大伦理关怀的范围,将在很大程度上取决于我们作为道德主体的能力:是仍坚持传统的生物中心标准,还是把机器当作“会哭会痛”的个体,将决定未来人类文明的伦理想象力。(作者康纳·珀赛尔,立夏译)
