评论

[万物相]给AI教伦理

金洪秀 朝鲜日报评论委员

查看韩文原文
▲ 插画=李撤元
3年前的荷兰,因为人工智能(AI)发生了大型事故,导致内阁集体辞职。有人运用AI揭发了2万多名儿童津贴违规领取人,还通报他们将收到的钱退回来。然后出现了有人自杀的混乱状况,但94%的内容是胡说八道。过去通过数据学习而陷入偏见的AI主要给无辜的移民、低收入阶层打上烙印。同一时期,在比利时,精神科咨询用聊天机器人建议患者自杀。亚马逊聊天机器人Alexa建议一名10岁的女孩摸“触电死亡”风险很大的电门,引发了争议。

▶自动驾驶汽车的“有轨电车(电车)难题”表明,AI在伦理领域还有很长的路要走。自动驾驶汽车的刹车坏了,过道上有两名老人和一名孕妇经过。如果不可避免地要撞击一方,你会选择哪一方?如果为了不撞击行人而转动方向盘,驾驶员可能会死。人们说应该把自动驾驶汽车设计成不会撞到行人的车辆,但在被问到是否会买这种设计的车时,他们却摇头。

▶科幻小说(SF)大师艾萨克·阿西莫夫思考过人工智能机器人应该具有的伦理观。经过深思熟虑,他提出了三个原则:“①机器人要保护人类;②机器人要听从人类的命令;③机器人要保护自己。”但在阿西莫夫的小说《转圈圈》中,其局限性立即显现了出来。前往外星的机器人按照人类的命令进行探测,在毒气喷出后,他后退了,表示要遵守原则③。机器人只在探测区域周围打转,不执行人类命令。

▶美国麻省理工学院为了寻找解决电车难题的方法,对世界各国的200多万人进行了“选择优先顺序”的调查。人们一致认为拯救的顺序是人优先于动物,多数优先于少数,青年和女性优先于老人和男性,但也暴露出了各地区的差异。在亚洲地区的回答中,青年优先于老人,但欧洲和美国则相反。

▶人类正在探索各种解决方法。联合国教科文组织提出了《人工智能伦理问题建议书》,以2021年的世界人权宣言、禁止职业和种族歧视等因素为考量,制定AI算法。韩国KAIST的研究小组提出了“机器人基因模型”,可以制造出14种“机器人染色体”,将这些“染色体”组合起来就能制造出具有人类伦理观的新机器人。AI伦理专家、美国华盛顿大学教授崔艺珍(音)入选了时代杂志《100大AI人物》。希望韩国能为AI伦理标准的制定做出贡献。

输入 : 2024-01-03 10:04  |  更新 : 2024-01-03 11:41

朝鮮日報中文版 cn.chosun.com
本文版权归朝鲜日报网所有, 对于抄袭者将采取法律措施应对

TOP