|
| AI能否与人类价值对齐?专家认为“非常有吸引力”但现阶段做不到 | |
12月16日,人类在由复旦大学主办的价值阶段“2023科技伦理高峰论坛”上,多所高校的对齐但现到新学者围绕数字技术时代,中国科技伦理的非常理论与实践问题进行探讨。 李真真发表主题演讲 本文照片为 澎湃新闻记者 李思洁 图 AI“价值对齐”可能吗? 如何将人类的有吸引力规范、道德、闻科价值接入AI系统?是学网否能实现人工智能与人类的价值对齐?中国科学院大学教授、中国科学院科技战略咨询研究院研究员李真真在论坛上表示,人类AI的价值阶段“价值对齐”可理解为使人工智能的价值体系和人类的价值观相一致。 近年来,对齐但现到新人们一直十分关注人工智能的非常价值对齐问题与人机伦理关系,尤其是有吸引力生成式AI的出现,再次唤起人类对人机伦理关系的闻科关注。 目前,学网许多将“价值对齐”概念纳入AI大模型的人类研发实践,也表现出将AI置于人类可控范围内的价值目标,但实施价值对齐仍然面临很大的挑战。有学者认为,AI的价值对齐是一种AI的社会化进程,就像一个人类儿童成长的过程,AI也要学习并遵守社会价值规范。 李真真认为,这种说法“非常有吸引力”但现阶段做不到,因为AI和人类的思维方式并不相同,它只是模仿了人类的理性思维方式而不具有感性思维。人类文明的开化始于爱,得益于情感、意志、情绪和经验等方面的自然交互,而目前,在拥有自身的自由意志之前,AI并不具有这些属性。 李真真还提到,要实现AI价值对齐需要具备两个前提条件。一是在人机关系中,人要处于主导地位,因为人类受到法律和道德的约束。然而,道德实际上是最大公约化的价值共识,它的本质是“空洞”的,具象化的道德依据个体差异而不同。如何给智能机器进行道德编码,这还需要技术人员与社科学者的进一步探索。其次,要明确人类对AI的需求与目标,明确是要设计通用型AGI还是解决特定问题的AI系统,这也是一种规避大规模风险的方式。 曾毅发表主题演讲 当人类忽略蚂蚁的时候,超级智能为什么要听人类的? “现在人工智能的实存风险是什么?在我看来,当人工智能进入社会的时候,它会以一种非常不合适的方式在误导公众。”被评为“全球百大AI人物”之一的中国科学院自动化研究所研究员、人工智能伦理与治理中心主任曾毅表示。 曾毅说,当我们在问生成式AI“你对某某问题怎么看”的时候,它所回复的“我认为/我建议/我觉得”只是依据统计到的信息的显著性做出的呈现。有的公众就会认为,AI的回复就像一个“朋友”,像一位“长者”,但它本身并非一个道德的主体,更不是一个负责任的主体,迄今为止没有任何一个AI能够负责任,目前阶段一定是人在为人工智能负责任。作为人工智能的工作者,应当做到技术上不要误导公众。 曾毅回忆起大一上人工智能课程时,老师给他们放的斯皮尔伯格《人工智能》影片里的一句台词:“如果机器人真的能爱一个人,这个人对机器人又该负有什么责任?” 如果影片成为现实,在人工智能演化成“超级智能”的时代,我们应该怎么和超级智能共处? 曾毅提出一个有趣的类比。当我们在网上搜索“人与蚂蚁的关系”时,800条搜索结果中,799条在讲的是世界各地的人用不同的方式吃蚂蚁,只有一条讲到“蚂蚁的合作范式是人类合作范式的典范”。 “当人类忽略蚂蚁的时候,超级智能为什么要听人类的?”曾毅说,“如果我是超级智能,我会问人类,当你都不尊重其他生命的存在的时候,我作为一个认知能力全面超越你的智能体,为什么要尊重你的存在?” 曾毅认为,未来我们并非要将人工智能与人类进行价值对齐(alignment),而是一种价值协调(coordination)。面对超级智能,人类社会的价值观需要调整和演化,“我们要从人类中心主义变成生态中心主义(ecology centrism),这是必须做出的变化。” 特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。
相关文章及时启动羁押必要性审查依法保障人权 2013年6月19日,涉嫌故意伤害罪的犯罪嫌疑人王某,经石棉县检察院启动羁押必要性审查程序后,被依法变更强制措施为取保候审,并于当日被释放。至此该案进入审查起诉环节。6月15日,石棉县检察院受理了石棉
2024-05-17 太陽餅沒有太陽,螢光貼紙居然也不是「螢光」? 文:陳瑋駿清華大學化學系碩士,中興大學化學系學士。現職科技業工程師,著有《化學有多重要,為什麼我從來不知道?》一書)為一個不專業的劇場版柯南迷,一年進一次電影院欣賞這次又是哪一個人氣景點被炸個稀巴爛,
2024-05-17
|
最新评论