忽如一夜春风来,千树万树梨花开。2022年11月30日,OpenAI发布的ChatGPT,彻底引爆了市场的热情。国内各大科技企业纷纷入局AI大模型。根据钛媒体报道,截至2023年7月,中国累计已经有130个大模型问世。众多创业者,也摩拳擦掌,等待入场。
与此同时,AIGC(AI-Generated Content,AI生成内容)也带来了一些新型的社会风险,如果创业者漠视AI产品的风险,不作防控,只是一味埋头抢滩登陆,很可能到头来得到的不是蜜饯,而是苦果。
一、为什么科技伦理变得重要
简单讲,能力越大,责任越大。剑桥分析公司在未经用户明确授权的情况下,获得了大约8700万Facebook用户的数据,通过大数据挖掘、心理侧写等技术手段,精准投放政治宣传,影响选举。AI等新技术应用可能引发的社会风险,具有突发性、隐蔽性、规模性、不可预测性等,传统法律的规制手段已经难以应付,而伦理先行成为新的共识。
2021年11月23日,联合国教科文组织通过《人工智能伦理问题建议书》,建议书指出:会员国应出台影响评估(例如伦理影响评估)框架,以确定和评估人工智能系统的惠益、关切和风险,并酌情出台预防、减轻和监测风险的措施以及其他保障机制。
2022年3月20日,中共中央办公厅、国务院办公厅出台《关于加强科技伦理治理的意见》,指出高等学校、科研机构、医疗卫生机构、企业等单位要履行科技伦理管理主体责任,建立常态化工作机制,加强科技伦理日常管理,主动研判、及时化解本单位科技活动中存在的伦理风险;根据实际情况设立本单位的科技伦理(审查)委员会,并为其独立开展工作提供必要条件。从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。国家科技伦理委员会负责指导和统筹协调推进全国科技伦理治理体系建设工作。
2023年4月4日,科学技术部科技监督与诚信建设司发布《科技伦理审查办法(试行)》(征求意见稿)。
2023年7月10日,《生成式人工智能服务管理暂行办法》公布,指出提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德。
从实践看,工信部、浙江、海南、辽宁、湖南等政府机构,中国科学院、华大集团、阿里巴巴、清华大学等企事业科研单位,纷纷开设科技伦理委员会。教育领域,哲学学科门类中新增“应用伦理”专业学位授权点,中国科协-复旦大学科技伦理与人类未来研究院揭牌,开启第一届招生。
不管是从商誉还是合规角度,将伦理审查嵌入AI开发、运营过程已经是大势所趋。伦理、法律、技术,是未来AI治理的三大手段。
二、一些需要特别关注的点
科技向善与价值对齐
《生成式人工智能服务管理暂行办法》具体提出,要“坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容。”“在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视。”
人工智能对齐(AI alignment),即要求AI系统的目标要和人类的价值观与利益相对齐,保持一致。如何选择合适的价值观,采取有效的技术手段,实现AI与人类价值对齐的目标,是AI创业者面临的一大挑战。
个人信息与隐私保护
目前一波让世界瞩目的AI浪潮,背后技术推力是AI预训练模型,即基于海量数据训练的、拥有巨量参数的模型。数据作为一种新型生产要素在AI产业尤其突出。可以说,没有数据,就没有AIGC。
而获得可供训练的数据,或者说语料,个人信息与隐私保护是无法绕开的话题。
根据安永咨询和赛博研究院《全球数据合规与隐私科技发展报告》,全球近100个国家和地区已经制定数据保护相关法律;截至2023年8月14日,GDPR执法总数1778起,罚款总额超40亿欧元。
从国内情况来看:
《生成式人工智能服务管理暂行办法》第7条规定:生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定:(一)使用具有合法来源的数据和基础模型......(三)涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;......
个人信息保护法第66条规定:“违反本法规定处理个人信息,或者处理个人信息未履行本法规定的个人信息保护义务的,由履行个人信息保护职责的部门责令改正,给予警告,没收违法所得,对违法处理个人信息的应用程序,责令暂停或者终止提供服务;拒不改正的,并处一百万元以下罚款;对直接负责的主管人员和其他直接责任人员处一万元以上十万元以下罚款。有前款规定的违法行为,情节严重的,由省级以上履行个人信息保护职责的部门责令改正,没收违法所得,并处五千万元以下或者上一年度营业额百分之五以下罚款,并可以责令暂停相关业务或者停业整顿、通报有关主管部门吊销相关业务许可或者吊销营业执照;对直接负责的主管人员和其他直接责任人员处十万元以上一百万元以下罚款,并可以决定禁止其在一定期限内担任相关企业的董事、监事、高级管理人员和个人信息保护负责人。”
今年以来,个人信息保护法的执法力度明显加强。工信部信息通信管理局发布《关于进一步提升移动互联网应用服务能力的通知》,中国网络空间安全协会发布十次App个人信息收集情况测试报告,上海启动为期半年的“亮剑浦江”上海个人信息保护专项行动,江苏公安执法公示平台披露上百起涉个人信息保护执法案例……
随着个人信息保护法等相关法律的细化,以及数据资源入表,无论是出于伦理、经济利益、合规还是社会评价的角度,数据合规必将是AIGC企业的规定动作。
可信、可控、负责
目前AI的技术路线,导致出现“算法黑箱”。腾讯研究院《可解释AI发展报告2022——打开算法黑箱的理念与实践》指出,基于人工神经网络结构的复杂层级,在AI深度学习模型的输入数据和输出结果之间,存在着人们无法洞悉的“黑盒”,即使是专家用户也无法完全理解这些“黑盒”。这样的不可解释和黑箱状态,无法得到社会信任,也会导致归责问题。
为解决AI模型可解释性、稳健性、透明度问题,达到可信、可控、负责的目标,《生成式人工智能服务管理暂行办法》指出:
“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。”
“采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。”
“在生成式人工智能技术研发过程中进行数据标注的,提供者应当制定符合本办法要求的清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性;对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作。”
“提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。”
“提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识。”
“提供者应当在其服务过程中,提供安全、稳定、持续的服务,保障用户正常使用。”
“提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。”
“提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。”
“有关主管部门依据职责对生成式人工智能服务开展监督检查,提供者应当依法予以配合,按要求对训练数据来源、规模、类型、标注规则、算法机制机理等予以说明,并提供必要的技术、数据等支持和协助。”
除了以上提到的要点,AIGC创业者仍需关注知识产权、商业秘密、不正当竞争、人格权保护、网络安全、数据安全等可能遇到的问题。关注AI产品的风险,不是为了妨碍创新和发展,而是让创业者行稳致远,更符合社会对效率、公正的需求。