生成式AI合规探讨系列(三):生成式AI伦理治理
生成式AI合规探讨系列(三):生成式AI伦理治理
引言
据北京青年报报道,2023年的清明节期间,上海一位吴姓小伙子,用AI工具生成了已去世奶奶的数字虚拟人,并和奶奶进行了对话。视频里,“奶奶”讲着湖北的方言,头发花白,像她生前一样“唠叨”。光看表情,可以说是惟妙惟肖。[1]对此,有些网友表示感动,认为这是非常有意义的寄托哀思方式;而有些网友则认为把已故亲人做成AI,感觉是把亲人做成被操纵的电子玩偶。
近年来,AI写作、AI绘画、AI音乐、AI游戏开发等生成式AI产品和服务纷纷出圈。生成式AI在高速发展赋能实体经济的同时,相关的伦理问题也层出不穷,伦理治理已俨然成为了一个迫在眉睫的话题。
一、伦理问题
当下,AI应用所引发的伦理问题已经引起了全球范围的广泛关注。2022年年初,联合国教科文组织出版了《人工智能伦理问题建议书》。该建议书提及:“人工智能系统引发了新型伦理问题,包括但不限于其对决策、就业和劳动、社交、卫生保健、教育、媒体、信息获取、数字鸿沟、个人数据和消费者保护、环境、民主、法治、安全和治安、双重用途、人权和基本自由(包括表达自由、隐私和非歧视)的影响。此外,人工智能算法可能复制和加深现有的偏见,从而加剧已有的各种形式歧视、偏见和成见,由此产生新的伦理挑战。”
作为AI技术中的重要组成部分,生成式AI所涉及的伦理问题包括但不限于如下方面:
(一)社会交往的缺失
基于深度合成等技术,虚拟人、聊天机器人等生成式AI应用为用户提供了有趣的、仿真的社交方式,也为用户提供了全新的、沉浸式的陪伴方式。深度合成技术已经可以“复活”已故亲人,寄托生者的思念;小爱同学、天猫精灵等也可以给孩子唱歌、讲故事、回答孩子的“十万个为什么”;“AI伴侣”甚至可以与用户“谈恋爱”。用户可以在元宇宙中与其他用户交流,或者单纯与虚拟人聊天,在虚拟人的陪伴之下满足其情感需求。
人工智能可以用来陪伴老人或者儿童,可以减轻看护人员的负担。但是,人工智能或机器是否可以代替亲情和家人的陪伴呢?答案显然是否定的。根据马斯洛的需求层次理论,爱和归属的需求仅次于人类的生理需求和安全需求。把老人或者儿童主要交给机器人看护,很可能会减少他们与社会之间的联系,而其感情需求也难以得到满足,甚至可能增加患病的风险几率。
(二)歧视和虚假信息
生成式AI的运行系基于深度学习。深度学习的基础则是研发团队人为对AI“投喂”海量训练数据,为AI设计算法。而AI生成的内容则是依赖于其训练数据中的统计规律,但是限于当下技术的局限性,AI生成内容之中存在歧视性信息或虚假信息的事件仍时有发生。
以歧视为例,OpenAI在2022年4月对DALL-E-2生成内容进行的风险测试结果显示,其图像生成结果可能会体现出更多的刻板印象和偏见。比如在输入“婚礼”、“餐厅”等词语时,程序会更加倾向生成西式场景的图片;当输入“CEO”、“律师”等关键词时,DALL-E-2也更高频地生成男性和白色人种的人类图像等[2]。以虚假信息为例,据美国有线电视新闻网(CNN)报道,在Roberto Mata诉Avianca航空公司一案中,资深律师Schwartz在提交法庭文件中所援引的6个案例被发现均系伪造。Schwartz使用的6个案例系来自ChatGPT,而Schwartz自己却没有核实信息的正误。[3]
(三)劳动力替代
工业自动化取代了人类肌肉,而数字自动化取代了人类思维或信息处理。[4]GPT-4、AI绘画、AI游戏开发等应用,说明生成式AI的使用无疑将大幅提高生产力和生产效率。然而,通过生成式AI的使用提高生产力和生产效率也意味着相同的产出仅仅需要更少的人力。
在前几次工业革命中,劳动力市场发生了巨大的变化,数字化时代的来临和人工智能、机器人的应用,将使劳动力市场发生更彻底的变化。主要问题是:这次产生的后果会有所不同吗?由其所产生的新工作岗位和创造的新财富,能否覆盖工作岗位客观上减少所带来的不良影响?即使没有带来明显的变化,那么这一阶段的过渡成本是多少,谁来为此买单?我们是否需要进行强制性的社会调整以公平分配数字自动化所带来的收益?[5]
二、伦理治理的原则和立场
中国政府对于人工智能伦理治理的立场和原则非常明确且坚定。2022年11月16日,中方向联合国《特定常规武器公约》缔约国大会提交了《中国关于加强人工智能伦理治理的立场文件》(以下简称“《立场文件》”)。《立场文件》指出“中国始终致力于在人工智能领域构建人类命运共同体,积极倡导‘以人为本’和‘智能向善’理念,主张增进各国对人工智能伦理问题的理解,确保人工智能安全、可靠、可控,更好赋能全球可持续发展,增进全人类共同福祉。”在监管方面,《立场文件》提出了多项重要主张,包括:坚持伦理先行;建议建立和完善人工智能伦理准则、规范及问责机制;建议建立和完善人工智能伦理的规范和法律政策体系;以及增强底线思维和风险意识等。
2022年3月20日《中共中央办公厅 国务院办公厅关于加强科技伦理治理的意见》,明确规定科技伦理的原则为:“增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明。”
三、伦理治理的立法情况
2016年,《涉及人的生物医学研究伦理审查办法》(以下简称“《办法》”)发布,该《办法》针对各级各类医疗卫生机构开展涉及人的生物医学研究进行伦理审查工作。
为适应人工智能的科技发展,在《办法》的基础上,2023年2月18日,国家卫生健康委员会等印发了《涉及人的生命科学和医学研究伦理审查办法》(以下简称“《审查办法》”)。《审查办法》将适用范围从《办法》的医学伦理审查扩展到了以人为受试者或者使用人(统称研究参与者)的生物样本、信息数据(包括健康记录、行为等)所开展的研究活动,并对其进行伦理审查。
2023年4月4日,科学技术部更是发布了《科技伦理审查办法(试行)(征求意见稿)》(以下简称“《试行办法》”),旨在进一步完善科技活动的伦理审查,弥补医学伦理审查范围以外的科技活动的伦理审查规定的空白。
以下是三份文件适用范围和适用对象的比较。
点击可查看大图
相应规定适用范围内的活动,应当通过伦理审查,适用范围发生竞合的,应当同时通过不同的伦理审查,未通过伦理审查的相应活动,可能面临行政处罚和刑事责任。
四、科学伦理审查
现阶段,中国关于伦理治理的主要方法为伦理审查。随着《试行办法》的发布,其将伦理审查的范围从直接以人为研究对象的科技活动扩展到所有存在伦理风险的科技活动,弥补了医学伦理审查范围以外关于科技活动伦理审查相关规定的空白。
(一)科学伦理审查责任主体
根据《试行办法》第五条的规定,高等学校、科研机构、医疗卫生机构、企业等是科技伦理审查管理的责任主体。从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。其他有伦理审查需求的单位可根据实际情况设立科技伦理(审查)委员会。
(二)科学伦理审查流程
适用范围内的科技活动必须通过科技审查后方可开展。一般审查由科技活动负责人应向本单位科技伦理(审查)委员会申请伦理审查,科技伦理(审查)委员会决定是否受理并给予书面通知。审查方式原则上为会议审查。科技伦理(审查)委员会对审查的科技活动,可作出批准、修改后批准、修改后再审或不予批准等决定。审查时限一般为30日。
《试行办法》还建立了伦理高风险科技活动的清单制度。除一般审查程序外,清单内科技增加地方或行业主管部门专家复核程序。单位应在纳入清单管理的科技活动获得伦理审查批准后的30日内,主动通过国家科技伦理管理信息登记平台进行登记。
(三)审查重点
根据《试行办法》第十四条的规定,科技伦理审查的标准和重点包括,科技人员资质、研究基础及设施条件;科技活动的风险受益比;科技活动研究参与者的权利保护;实验动物福利;数据处理方案及数据安全风险控制等等。
(四)研究参与者的权利保护
和《审查办法》相一致,《试行办法》也关注到了研究参与者的权利保护。根据《试行办法》第十四条,研究参与者的权利包括公平合理的参与权、个人信息和隐私保护、补偿和损害赔偿权、知情权、脆弱人群的特殊保护等。
结语
科技创新进步的前提,伦理合规必须坚持先行的理念。人们不应只在乎眼前的利益,科技的发展始终必须坚持以人为本的中心。唯有坚守伦理底线,生成式AI才能更好地赋能实体经济,为数字经济活动降本增效。
[注]
声明
本文旨在法规之一般性分析研究或信息分享,不构成对具体法律的分析研究和判断的任何成果,亦不作为对读者提供的任何建议或提供建议的任何基础。作者在此明确声明不对任何依据本文采取的任何作为或不作为承担责任。如需转载或引用本文的任何内容,请联系作者(fanxiaojuan@zhonglun.com); 未经作者同意,不得转载或引用本文的任何内容。