龙卫球:AI立法规范对象与规范策略
发布时间:2021-09-06 16:17:23 所属栏目:大数据 来源:互联网
导读:随着人工智能技术的广泛运用,人工智能立法急需提上日程,而制定一部人工智能法,首先需要明确其规范对象与规范策略。人工智能科技基于自身专业科技和赋能科技的双重属性及其不同实现要求,其开发应用活动也相应形成了两个迥然不同领域。为此,人工智能立法
(二) 人工智能赋能科技活动的相应规范策略
人工智能赋能应用目前形成了丰富多样的场景,而且存在不断扩展之势。随之而来的,便是对于这些赋能科技活动如何规范问题。我们在以往科技法所见到的科技市场法、科技风险法、科技政策法的策略,基本上是按照专业科技活动的合理需要而设计的,对于赋能科技活动基本上没有多少涉及。从这个意义上说,人工智能赋能科技活动的规范问题具有新颖性,也存在较大的挑战性。法律作为最重要的社会规范,最终要来源于社会存在的合理要求,而不应该来自空洞的想象力。人工智能赋权科技活动的规范策略也是一样,应当建立在对赋能科技活动自身特点及其存在规律的准确分析基础上,合理规范策略就隐藏在这种赋能活动的事理之中。
通过与专业科技活动比较,我们不难发现人工智能赋权科技活动,其关键结构就在于特殊的叠加结构:“人工智能+应用场景”。在这一结构里面,前者代表赋能行动,后者代表被赋能的本体(也可以称为被赋权事项或者领域),形成了一种“赋能”与“本体”的叠加关系或结合关系。在这种认识意义上,对于人工智能赋能科技活动,合乎逻辑地产生了一个基本规范策略,即必须就赋能和被赋权的本体之间做出一种合理平衡。人工智能科技赋能代表效率工具,应用场景则代表价值功能,它们的关系是作为人工智能科技赋能产生的效率与作为应用场景蕴含的本体价值功能的关系,二者之间如何合理对接并不简单。人工智能虽然具有赋能的无限可能,但开展“人工智能+” 的政策,并不是可以毫无节制或限制的。例如,在证券交易市场,监管部门可否通过人工智能赋能加强自己的监管能力?相反,又是否允许交易者使用人工智能机器帮助炒股?类似的,在保险市场,是否允许保险公司开发和应用人工智能装置来支持自己精确估算投保人?无论传统保险公司还是新型互联网保险公司,似乎都在努力将人工智能等运用于保险,优化保险经营流程,改善客户在保险报价、承保、理赔和客户服务等过程中的体验,让保险变得简单、透明、高效。但是是否也存在对于保险法律关系特别是投保人一方不合理的人工智能科技运用呢?这些问题值得关注。航空公司是否可以通过人工智能赋能对乘客实施动态定价或者价格区分策略? 美国民航产业是较早从动态定价中获利的行业,例如在周末高峰期采取高价策略的定价,这种情况被认为不等于区分定价。其中,美国航空公司自20世纪90年代开始率先采取动态定价,通过这种动态定价每年可以额外获得5亿美元的回报动态定价。打车软件平台公司为了服务便利或者用户乘车安全,使用人工智能赋能时可以在多大程度收集用户数据或者用来进行所谓的动态定价?研究者认为,美国优步( Uber) 打车软件公司就被认为并没有奉行“数据最小化原则”,而是借助人工智能技术过度追踪和收集用户信息,其“要么接受,要么离开”的政策使得用户无可奈何。同时,这种人工智能科技技术还被用来赋能设计所谓独家定价,从而遮蔽了真实市场的合理交易价格。美国学者米特尼克则认为,优步完全侵蚀了用户的匿名性,它通过技术的使用除了拥有“上帝视角”可以跟踪你的行程之外,“根据修订后的隐私政策,优步还会收集你的通讯录信息”。政府税务部门可否适用面部识别方式来加强自己的收税能力?是否允许自动驾驶的系统开发者为了自动驾驶汽车可以开到每小时200公里以上,添加相应的人工智能支持装置?等等。这些问题都不容易回答,需要通过复杂的“赋能+应用场景”的结构分析来做出具体权衡。这种规范策略是人工智能作为专业科技活动这一面所不需要的,但是却又是其作为赋能科技活动所必不可缺的。
首先,为了做好这种结构分析和权衡,必须面向赋能的具体应用场景,或者说深入到应用场景之中,具体理解和把握被赋权本体的内在平衡需要。我国学者有的虽然关注到了人工智能应用场景问题,但是相关研究通常没有深入到赋能与应用场景的复杂结构关系之中,因此往往难以切中要害。这是因为,每一种作为现象的应用场景背后,都隐藏着被赋权本体自身的独特功能和相关利益风险的具体预设,由此对于特定的被赋权本体来说,因其特定功能和利益风险的具体预设,对于来自外部的赋能总是存在某种既定承载空间和方式限制,有时可能非常敏感,并非任何时候都是欢迎的。人工智能赋能科技活动规范策略在这一面向的要求,具体又包括三个方面:其一,尊重应用场景既有法律秩序的功能、利益、风险设定和基本边界,以此来权衡实施人工智能赋能的可行性、限度及其方式。其二,应该着力避免因为引入赋能而导致被赋权本体价值功能偏移或异化,或者导致利益、风险关系的严重失衡。赋能的结果,不能简单地有利于一方而损害另外一方,特别是导致特定个人隐私、财产、自由乃至人格的丧失或减损等。相反,应该是增进彼此的合理价值、合法利益,或者减少彼此不合理风险。所谓利益风险通常是具体的,但在某些具有重大意义的应用场景,也可能引发整体意义的生产、 商业或管理模式的不当影响和风险。此外,人工智能科技作为赋能科技还有另一层含义,就是由于它具有的与人相通的认知能力,在某些赋能应用场景还可能导致对人类自身的替代,产生替代或者超越人自身的效果。这种情形还会导致极其敏感的人类伦理或安全问题。例如,产业机器人大量替代工作岗位导致的劳动者伦理和安全问题,警用机器人或军用机器人代行特殊职责导致特定职业人的伦理和安全问题,将来仿真人替代人类某些人格功能可能导致人类局部或者根本伦理和安全问题,等等。
我国《国务院2017年新一代人工智能发展规划》在第三部分“重点任务”,规划了目前和未来一个时期的应用,其中包括对赋能活动领域的区划,往下根据领域性质的不同又区分了“人工智能+经济领域”和“人工智能+社会服务和管理”两大领域。其中第(二)项为“培育高端高效的智能经济”,将相关赋能应用场景主要归类为经济和社会两大领域应用场景,各自在项下又做出更进一步的细分。首先是经济领域,特别提出了要发展“人工智能+”的赋能式产业应用,以便加快产业智能化升级,范围很广,即“推动人工智能与各行业融合创新,在制造、农业、物流、金融、商务、家居等重点行业和领域开展人工智能应用试点示范,推动人工智能规模化应用,全面提升产业发展智能化水平”;此外可以改进企业管理本身,使其成为智能企业,还可以从产业布局平台上优化环境,打造人工智能创新高地。第(三) 项为社会服务和管理的智能化,列举了“人工智能 + ”在这一领域的应用。包括:在教育、医疗和养老等社会领域发展便捷高效的智能社会服务; 围绕行政管理、司法 管理、城市管理、环境保护等社会治理的热点难点问题,促进人工智能技术应用,推动社会治理现代化;促进人工智能在公共安全领域的深度应用,提升公共安全保障能,推动构建公共安全智能化监测预警与控制体系;促进社会交往共享互信等。可见,《规划》关注赋能领域并且予以充分重视,但遗憾的是,《规划》在相关人工智能立法规划要求中却没有明确提出应当区分规范策略。
其次,人工智能赋能应用规范策略,为了做好基于“赋能 + 应用场景”的结构分析与权衡,除了面向赋能的具体应用场景,还必须注意到赋能的作用方式,简称赋能方式或赋能模式。人工智能赋能科技活动并不是单一的,赋能主体往往会就在应用场景使用人工智能预设特定目标,由此出发选择自认为合适的赋能方式。在这种情况下,对于人工智能赋能活动的规范不能忽视对赋能方式的关注,因为这些赋能方式侧重不同、强弱不一,不同赋能方式对于应用场景的影响差别很大,有的甚至完全不同,所以有必要结合起来考量。所谓“赋能+应用场景”的结构,其实应该是“具体的赋能方式+具体的应用场景”的结构。现实中,将具体赋能方式应用于不同应用场景,必须十分慎重,配置不当很可能引发方式与合法目的脱节,导致应用场景功能异化或者削弱,或者导致利益风险关系失衡,甚至产生人工智能究竟是“工具还是武器的两面性”的困惑。例如,人工智能基于技术发展已经可以开发识别功能,包括图像和语音识别、面部识别、音频和声音识别、文本识别等,可以将之称为识别模式,对于这种方式的使用,从赋能功能上说可以增强发现准确发现和识别对象或事物的能力。但是,如果出现“控制蔓延”式的滥用,则可能导致个人无法匿名、无处遁形的全监视社会后果,或者说产生自由公民变成边沁所说的囚徒效应。
目前人脸识别技术成为各国关注热点,我国最近也因为浙江一起案件而引发讨论。我国对于人脸识别在规范适用上一直存在较大困惑,虽然从理论上看公民生物识别信息至少应该纳入现行法律中的个人信息保护,但是现实中许多公共机构、事业单位甚至企业存在几乎无节制使用脸部识别技术的情况。在此不妨对比英国的一个案例:2019年9月4日,英国的英格兰和威尔士高等法院行政庭通过一个上诉判决,明确了警方使用人脸技术的合法界限。威尔士警方以“AFR Locate”方式部署自动人脸识别技术,对从闭路电视中获取的公众人脸进行识别,对比监视名单,若匹配不成功抽取的面部数据和相关照片不会存储,匹配成功的相关数据也最多会被保留24个小时,而闭路电视记录根据相关标准可以保留31天。法院认为,个人面部信息作为个人生物识别信息并不属于《2018年数据保护法》下的敏感信息,而且警察具有法律框架权力如此以公开部署而不是隐蔽监视的方式使用这种设备,因此认定警方具有合法性。相比较,一些国家已经注意到这种赋能方式不加节制使用可能导致的负效应,特别是对于个人生物识别信息保护带来的冲击,逐渐建立对这种赋能方式的应用控制底线。这些国家就人脸识别技术正在试图从应用限制角度建立基本底线规范。2019 年11月,欧盟基本权利局发布了《人脸识别技术: 执行中的基本权利考虑》报告,明确人脸识别技术中涉及的基本权利的含义,并重点关注将该技术用于执法和边境管理的目的,提出欧洲需要更加严格监管其在国家边境及公共场所的应用,避免带来的诸如数据歧视、侵犯隐私和未成年者权利的风险,并提醒当局使用该种技术时应确保使用性质“特定、明确、合法”。2019年11月,法国数据保护机构 CNIL 也发布了关于面部识别的报告,梳理了相关风险和法律框架,讨论监管机构的角色,呼吁关注这一主题。2020年3月12日,美国华盛顿州参众两院通过第 6280 号参议院议案,将于7月1日生效。该州法明确了州或地方机构在满足特定条件下能够使用脸部技术;对政府机构使用提出了一系列规制要求,包括应向相应的立法机构提交意向通知,准备责任报告,使用该技术做出决策时应当进行有意义的人工审查和运营测试,培训相关人员,对使用情况进行披露、记录、审计和汇报;同时严格限制用来持续、实时的监视和追踪,除非获得许可或者紧急情况下才能用于上述目的。 (编辑:宿州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |