[3][英]尼克·波斯特洛姆.超级智能:路线图、危险性与应对策略[M].张体伟,张玉青,译.北京:中信出版社,2015. 随着AI的普遍化与强大化,人类正处于“魔法师学徒”的境地,对齐问题(the alignment problem)成为最紧迫的问题之一,即“如何确保这些模型捕捉到我们的规范和价值观,理解我们的意思或意图,最重要的是,以我们想要的方式行事”。当AI伦理风险不断涌现,价值对齐问题已然成为各大AI企业竞相研究、践行的核心策略。2023年7月,OpenAI宣布成立“超级对齐”(superalignment)团队,计划花费4年时间、投入20%算力,全力解决超级智能的价值对齐问题。此外,谷歌、微软、OpenAI和Anthropic共同创建了前沿模型论坛,旨在通过与政策制定者、学术界的合作,推动AI模型安全、负责任的开发。不可否认,AI价值对齐能够大幅纠正偏见、促进公平,已被视为解决AI发展负面后果的关键举措。 不可否认,上述基于自然主义道德观的AI价值对齐方案对智能社会的健康发展产生了一定程度的正面影响。无论是将黑人识别成大猩猩的谷歌图像识别软件,还是为男性相关词汇打正分而为女性相关词汇打负分的亚马逊在线简历筛选工具,抑或是对黑人存在偏见的未来犯罪预测软件,经过技术上的AI价值对齐,在某种程度上能够逐渐与人类现有的规范与价值观保持一致,有效地促进了社会公平与大众福祉。
该文章转自 海外网 ,如有异议,请发邮件至diguowang08@163.com。
版权声明:凡注有稿件来源为“人工智能价值对齐的哲学反思|有限主义视域下的人工智能价值对齐_人工智能价值对齐的哲学反思|有限主义视域下的人工智能价值对齐全文免费阅读”的稿件,均为尸怨攻略_人工智能价值对齐的哲学反思|有限主义视域下的人工智能价值对齐全文免费阅读版权稿件,转载必须注明来源为“人工智能价值对齐的哲学反思|有限主义视域下的人工智能价值对齐全文免费阅读网”。