过去一年,人工智能技术的发展不再以年为单位,而是以月甚至以周为单位不断更迭。人工智能伦理建设也成为行业的普遍共识。
12 月 21 日,ZAFT会长单位蚂蚁集团举行了蚂蚁集团科技伦理顾问委员会 2023 年度会议。顾委会成员及多位特邀专家学者围绕着科技伦理治理体系建设、生成式 AI 治理、大模型风险管理等议题进行了深入讨论,ZAFT会长、浙江大学国际联合商学院院长贲圣林受邀参会。
与会专家一致认为,大模型的出现正在对经济社会发展产生积极影响,但也伴随着很多挑战和风险,其科技伦理建设至关重要、任务艰巨。
蚂蚁集团从 2015 年就积极投入可信 AI 的技术研究。围绕“安全、合规、可控、可靠”的目标,建立了大模型综合安全治理体系。今年 2 月,蚂蚁在设立公司内部科技伦理委员会的基础上,正式成立科技伦理顾问委员会,由 7 名外部专家构成,为蚂蚁集团科技伦理建设给予方向性、战略性、针对性的指导建议。(详情点击:蚂蚁集团成立科技伦理顾问委员会,持续推进科技伦理建设)
蚂蚁集团资深副总裁、技术战略委员会主席倪行军在现场介绍了蚂蚁集团科技伦理建设的最新进展:与大模型能力建设和应用探索同步,蚂蚁集团持续投入人力和算力搭建风险评估、防御的机制及能力。目前大模型伦理建设人员占整体大模型技术人员的将近 20%,未来将继续保持高水平和高强度的投入。此外,科技伦理委员会将联合蚂蚁技术研究院投入前沿伦理问题研究。
“我们认为现在是一个真正人机融合智能的时代,除了在大模型领域坚决投入,研究对齐技术,同时我们也高度重视运筹优化、图智能、可信 AI 等技术能力的建设。我们希望通过与搜索,知识图谱等技术的高效结合,缓解目前大模型存在的幻觉等问题,并通过有效管治手段夯实科技伦理,让智能技术服务于人类。“蚂蚁集团 CTO 何征宇在现场表示。
我们摘取了与会专家的观点如下,希望与大家进行探讨和交流。
编辑:浙江数字金融科技联合会 叶杨帆
审校:浙江数字金融科技联合会 王怡然