荡的,金属义肢与地面接触时发出轻微的咔嗒声。
他走到讲台后方,摘下眼镜擦了擦镜片,露出一双充满智慧的深邃眼睛,眼角皱纹里藏着岁月的沉淀。
正是文崇。
文崇调试好麦克风,声音透过音响传遍教室:“今天我们从三个案例切入,聊聊AI决策的伦理边界……”
他的语速平缓,逻辑清晰,讲到关键处会举起左手比划。
中途提问环节,文崇目光扫过教室,最终落在最后一排:“那位穿白衬衫的女同学,你对算法偏见有什么看法?”
所有目光齐刷刷投向温穗。
她站起身,虽然挺惊讶,声音却很稳:“算法偏见的本质是数据偏见。训练数据里藏着人类社会的隐性歧视,AI不过是将这种歧视量化成代码。解决的关键不在于优化算法,而在于重构数据采集的逻辑。”
文崇眼睛豁然亮起,没想到会得到这样的答案。
他微微颔首:“说得很好。那你觉得,当AI的决策与人类伦理冲突时,该以谁为准?”
“以具体场景为准。”温穗从容迎上他暗含鼓励和期待的眼神,“医疗领域以生命优先,司法领域以程序正义优先,没有放之四海而皆准的准则。”
文崇沉默了两秒,突然笑了:“有见地。你叫什么名字?”
“温穗。”
“温穗。”
他轻声重复这个名字,最终只是点点头,“请坐。”
温穗坐下时,悄悄松开紧握的手。
贺霜担忧地看着她:“你没事吧?脸色好差。”
“没事。”
她摇摇头,视线忍不住再次投向讲台。
文崇正在讲解某个医疗AI的案例。
讲到情感交互模块,他忽然开口:“真正的共情,不是模拟人类的表情,而是理解表情背后的情绪,根据人类的情绪做出相对的反应。”
有学生举手发问:“文老师,既然AI这么智能,那未来人类会不会被AI取代?”