欧盟算法治理又有新动态。
近日,欧盟委员会通过了《数字服务法》(Digital Services Act,以下简称“DSA”)下的第一批确定决议,划定总计19个超大型平台,这些平台将履行欧盟规定的一系列义务。4月底,欧盟宣布成立算法透明度中心(European Centre for Algorithmic Transparency,以下简称“ECAT”),为DSA监管大型平台提供技术支持。
受访专家指出,DSA对超大型平台和搜索引擎提出了更加全面的监管要求,在算法治理方面的要求也更为直接和明确。DSA的落地施行、算法透明度中心以及划定超大型平台体现了欧盟打造人工智能领域规范性力量的野心。当前,人工智能革命的浪涌给算法透明带来了新的影响和挑战,未来,监管、企业侧均应发力实现算法综合治理。
(资料图片仅供参考)
划定监管范围、审查算法透明
根据《数字服务法》, 在2023 年 2 月 17 日每月活跃用户达到4500万及以上的平台将被认为是大型平台。此次划定了17个超大型在线平台(Very Large Online Platforms,以下简称“VLOP”)和2个超大型在线搜索引擎(Very Large Online Search Engines,以下简称“VLOSE”)。其中VLOP包括:阿里巴巴全球速卖通、亚马逊商店、苹果应用商店、谷歌地图、TikTok、推特、维基百科等,而VLOSE则是必应、谷歌搜索。
据悉,在接下来四个月内,这些平台需要履行DSA规定的多项义务。包括发布关于内容审核决策和风险管理的透明度报告;识别、分析和缓解平台的系统性风险等。
4月底,欧盟还宣布成立算法透明度中心(ECAT),以期“为人们和企业创造一个更安全、更可预测和更值得信赖的在线环境”。
ECAT隶属于欧盟委员会联合研究中心( Joint Research Center,以下简称“JRC”),JRC则属于欧盟委员会,承担欧盟专项计划研究项目,为制定和执行欧盟政策提供科技支持。JRC发布的2023-2024年的工作计划中,打造值得信赖的人工智能,主持欧洲算法透明度中心工作是任务之一。
“对算法的监管是一个复杂和技术要求极高的工作。”复旦大学国际问题研究院副研究员严少华解释道,要对算法进行有效的监管,首先要对算法的运行有深入的了解,将算法透明度中心设置在欧盟联合研究中心下,可以借助联合研究中心已有的研究力量开展工作。
北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括则指出,对于专门的问题设立专门设立的机构解决,是欧盟在执法方面一贯的思维和立场。ECAT体现了算法的透明度、算法的可解释性在算法治理、平台治理和数字服务治理方面的地位。
官网显示,ECAT由数据科学家、人工智能专家、社会科学家和法律专家等多领域专业人员组成。ECAT将利用技术、伦理、经济、法律、环境等多领域的专业知识,集中开展以算法透明度为重点的研究,确保数字服务的算法决策透明、可解释,并符合DSA中平台风险管理义务。
ECAT的具体工作包括开展平台评估和调查、科学研究与前瞻、交流和社群建构三个方面的工作。
平台评估和调查方面,ECAT将支持欧盟相关的调查、检查;对算法系统进行技术测试;对VLOP和VLOSE提交的透明度报告、风险评估和独立审计进行分析;定义相关程序,确保监管机构和研究人员的数据访问。
科学研究与前瞻的具体工作则包括识别和衡量与VLOP和VLOSE相关的系统性风险和可能产生的新风险,评估平台的风险缓解措施;研究算法的长期社会影响以及识别可能产生的新风险;研究算法的长期社会影响。
ECAT还被赋予了促进交流和社群建构的职责,未来将分享相关领域的科学发现和实践案例。
数字服务法与欧盟的算法治理之路
在严少华看来,ECAT的建立以及对算法可信度和透明度的重视是欧盟在人工智能领域打造自身名片的尝试。“欧盟在人工智能领域的技术和产业发展相对滞后,因此会寻求在制度和标准上发力,强化对人工智能相关规则的监管,打造人工智能领域规范性力量的形象。”他还提到,欧盟正在酝酿的《人工智能法案》(AI Act)也是这种努力的一部分。
事实上,作为数字立法大国,欧盟近年来针对算法治理推出了多个规则、框架。早在2018年,欧盟就通过并施行了《通用数据保护条例》(General Data Protection Regulation,GDPR),对算法针对个人数据收集、检索、使用等处理行为进行严格规制;首次在立法中提出和创设了“算法解释权”,当数据主体认为算法决策得出的结果与自己预期不相符合时,有权要求获得算法设计以及运行(即数据的分析处理过程)的解释。
2019年,欧洲议会研究服务机构发布《算法问责及透明治理框架》(A Governance Framework for Algorithmic Accountability and Transparency)则在算法相关权利确立的基础上提出了全面的监管框架。其中提到,算法及其在自动化决策系统中的应用应受到全面监管,并就欧盟人工智能战略中的“建立适当的伦理和法律框架”要求提出政策建议与规制路径。
2020年12月,欧盟以“为所有人提供一个更安全、更公平的数字空间”为宗旨,公布《数字服务法》(Digital Services Act,DSA)和《数字市场法》(Digital Markets Act,DMA)两份法律的草案。这两份法案已分别于2022 年 11 月 16 日和2023年5月2日正式施行。
其中,DSA要求平台,尤其是VLOP和VLOSE识别、分析和减轻其平台上的一系列系统性风险。其中就包括算法治理方面的义务,包括但不限于保证算法的透明度,评估推荐系统和其他相关算法机制的设计。
严少华指出,GDPR只要求对用户产生重大影响的算法决策机制做出解释,注重的是用户的隐私保护和知情权,而DSA则对超大型平台和搜索引擎提出了更加全面的监管要求。
吴沈括则表示,新法案在数据保护领域是继承和延续了GDPR的规定的核心要点,更加突出了算法治理和内容治理方面的更为直接和明确的要求。
如何打破“黑箱”,践行算法透明?
为何算法透明和算法治理如此重要?
“算法透明是技术性正当程序中的重要节点。”对外经济贸易大学数字经济与法律创新研究中心执行主任张欣告诉南方财经全媒体记者,所谓技术性正当程序,是指通过代码公开、开发公众参与程序、系统软件测试等手段优化计算机程序设计以提高自动化决策系统的透明性和可问责性。
作为技术性正当程序中的关键一步,算法透明它决定着人的知情权和参与权,没有它,人们将无从知晓自动化决策做出来的逻辑和预期产生的后果;另一方面,如果算法运行不具有可解释性,一旦产生相应的侵害和危害,我们无从了解谁需为此负责,自然也难以获得救济。
以自动驾驶汽车为例,人工智能系统的运行涉及多个组件和节点,如果算法不具备解释性、透明度,那么事故中的责任分配将会成为不可破解的难题。
从震荡艺术界的AI作画到影响全人类的GPT-4,AIGC可能引发的革命性变化受到越来越多的关注。
在张欣看来,ChatGPT及类似大型语言模型的研究和投入使用给算法治理带来了新的影响。作为一种基于神经网络的自然语言处理技术,可解释性差是大型语言模型天然的缺点。随着应用范围的扩大,算法的研发者和设计者更应履行好相应的算法透明义务。使用了何种数据、数据的处理规则、如何做好数据的纠偏、如何保证算法公平性和多元性等问题都需要被关注和解决。
进入数字化时代,人类的日常生活与算法紧密交织。事实上,如何打开算法系统的“黑匣子”,使系统变得透明、可解释是一个受到多方关注的问题。
2022年3月,美国国家标准与技术研究院(National Institute of Standards and Technology,NIST)发布《迈向识别和管理人工智能偏见的标准》,其中指出,人工智能系统需要更易理解和解释,由于不同人对相同输出结果的解释也可能会存在明显差异,因此需要一致的透明工具指南。
2020年英国信息专员办公室(Information Commissioner"s Office,ICO)和艾伦·图灵研究所共同编制的《人工智能决策解释指南》发布,为算法提供服务者提供了一个框架,以便向用户解释使用AI系统做出的决策。
近年来,我国也出台了一系列针对算法的规则,如《互联网信息服务算法推荐管理规定》《关于加强互联网信息服务算法综合治理的指导意见》等,“算法透明”的概念在其中也屡次被提及。
吴沈括从监管、企业侧给出了建议。他认为,监管侧需要提升专业的技术配备,提高技术能力,尤其是技术监测方面的水平;在企业侧,公司一方面需要积极履行主体责任,主动地提高算法的透明度和可解释性。另一方面,也应当积极引入第三方监督,运用社会监督的力量来提高各方的信任水平。
(文章来源:21世纪经济报道)