加入收藏 | 设为首页 | 会员中心 | 我要投稿 宿州站长网 (https://www.0557zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

龙卫球:AI立法规范对象与规范策略

发布时间:2021-09-06 16:17:23 所属栏目:大数据 来源:互联网
导读:随着人工智能技术的广泛运用,人工智能立法急需提上日程,而制定一部人工智能法,首先需要明确其规范对象与规范策略。人工智能科技基于自身专业科技和赋能科技的双重属性及其不同实现要求,其开发应用活动也相应形成了两个迥然不同领域。为此,人工智能立法
但是,人们也需要担忧,如何才能避免因为应用不合理或者不慎而导致难以预测的灾难。特别是在军事领域,我们看到,人工智能进步不断催生新的军事能力,例如美国海军研发的X-47B无人机可以自我飞行和降落;韩国、以色列等国已经开放出了放哨机器人,这些机器人甚至可以自主决定是否开火;需要格外注意的是,民用人工智能技术也具备着军用的可能性。哈佛大学肯尼迪政治学院贝尔弗科学与国际事务中心2017年7月发布的《人工智能与国家安全》注意到了人工智能技术的军民两用特征,因此从安全的视角提出对此应当进行一定的国家安全层面的管理;同时建议国防部开展聚焦于人工智能的军事演习,以确定潜在的颠覆性军事创新,资助多种形式的、长期的关于人工智能技术及其应用的战略分析,重点投资在攻防两端“反人工智能”的能力。那么,对于人工智能军事赋能是否应当予以某种控制,或者说如何避免因引入人工智能自主模式而发生机器人自动或者错误发动军事行动的恶果呢?美国学者瓦 拉赫认为部署和使用目标可能对准非战斗人员的ADS(主动拒止武器) 违反了《武装冲突法》 (LOAD) ; 在其著作中也披露了美国国防部每年投入数十亿美元资助先进武器装备的研发,例如 2014 年下属高级研究计划局(DAPRA) 预算为 28.17 亿美元,秘密赞助人工智能、网络战、无人武器系统、激光防疫系统以及21世纪士兵增能等。该学者进一步指出,包括人权观察组织在内的许多非政府组织关注和呼吁禁止致命自主机器人( LARS) ,越来越多的国际专家也支持有必要控制机器人手臂。2014年 5 月联合国在日内瓦举行关于特定常规武器公约(CCW) 的会议上,讨论了自主武器带来的危险,这是正式承认这一议题重要性的开始(117个国家加入了CCW,该公约旨在限制使用视为对战斗人员或平民造成不合理的损害的特定武器)。但机器人武器反对者认为,这种武器的使用可能降低开始新战争的门槛。
一直以来,人工智能随着自身技术发展并针对各种应用需要,不断开发相应赋能手段,迄今为止已经形成了较为丰富的技术模式。知名研究企业 Cognilytica 最近发布了一份名为《全球AI法律法规 (Worldwide AI Laws and Regulations) 》的报告,探讨了世界各国采取的最新法律法规举措,涉及九个AI相关领域,其中分析了人脸识别与计算机视觉应用、无人驾驶汽车的操作与开发、AI 相关数据隐私问题、对话系统与聊天机器人引发的挑战、AI 应用可能引发的人身财产威胁等法律法规议题,同时从法律层面讨论了自主武器系统(LAWS) 、AI 伦理与偏见问题、AI 支持型决策、对AI技术的恶意利用可能性及方式、AI系统创建及交互等问题。Cognilytica 公司这份报告在列举上述法律问题的背后,也明显关注了相关的赋能技术架构基础,大体可以归纳七种不同赋能模式。(1)个性化服务模式。包括浏览模式和搜索创建个性化推荐,可以对客户提供个体化的体验或推荐,或者建立个体化联系。(2)对话模式。包括聊天机器人、语音助手等,可以使机器与人交流互动,或者促进人际交互。(3)辅助预测分析和决策模式。包括搜索和检查、预测行为、预测故障、识别对象、优化或提出建议、智能导航等,可以帮助人类做出更好决定。(4)识别模式。例如图像和语音识别、面部识别、音频和声音识别、文本识别等,可以帮助准确发现和识别对象或事物。(5)异常识别模式。包括欺诈和风险检测,可以发现异常,避免风险,优化应急。(6)解决难题模式。包括玩游戏、优化资源、解决问题以及机器投标和拍卖等,旨在强化目标驱动机器的学习和处理能力。(7)加强自主或者完全自主模式。包括机器自主实现系统、汽车等交通工具的自动驾驶 系统,旨在减少人的手工劳动或参与。可以预计,随着人工智能科技进一步发展和赋能应用需要,相关赋能方式会更加丰富。
五、结语:认识人工智能立法规范
对象特殊性及其影响
人工智能因为自身科技的特点在应用上极具特殊性和复杂性。人工智能,建立在会模仿人类学习思考的相关统计模型基础上,其实质是一系列算法,或者说计算机可以按照步骤执行的指令来完成的自动化程序,通过排序数据、发现模式和预测技术,选择一系列规则来应用于输入,从而引导特定的输出。这种技术特点导致提供丰富赋能的可能。例如,可以支持业务工作数字化使其更快和更一致,可以开发在线学习语言的翻译和语音识别服务,可以对用户提供相关性的搜索引擎服务,可以基于用户体验中做出个性化产品推荐,可以基于以前的例子识别垃圾邮件的过滤器,可以通过分析数据来模拟世界的某个方面,还可以用这些统计模型的推论来预测和预测未来可能发生的事件,包括建立医学自我诊断系统或者设计交易智能合约等。人工智能赋能可能导致了“人工智能 + ”的现实驱动。
人工智能应用的特殊性和复杂性导致了立法特殊性和复杂性,首先便反映在其规范对象的认识和确定上。人工智能科技具有专业性和赋能性的双重性,使得其据以实现自身属性的科技活动也相应区分为专业科技活动和赋能科技活动两大类型,前者是其作为信息科技领域的一项前沿专业科技,需要通过有效的专门化活动促进和提升自身研发、生产和部署,后者则是为了发挥作为新型信息科技具有的特殊赋能功能所形成的开发和应用活动。二者呈现出性质、功能和结构形式等方面的重要差异,因此要求迥然不同的规范策略。特别是对于后者而言,在“人工智能+”的架构下存在“赋能”与“应用场景”的叠合关系,需要通过复杂的结构分析与权衡才能把握合理规范界限。一方面,要紧密结合具体应用场景,尤其要注意维护关于功能、利益和风险的预设要求,另一面重视如何选择好赋能方式,注意处理好赋能方式与应用场景的正向衔接,避免超越关系界限的滥用。
人工智能立法规范对象的双重区划及其导致规范策略差异,使得人工智能立法在体系上出现了一种“合而不同”的内在分化特点。制定人工智能法必须面对两个不同的领域、区分两种不同的规范策略来进行,而不能忽略其中任何一个领域,否则,不能达成规范体系的完整。但是,两个范畴差异又是如此明显,统合在一部法律之中,十分考验智慧。特别是在赋能应用情况,且不说“人工智能+经济”与“人工智能 + 社会”之间存在巨大鸿沟,即使是经济领域或社会领域各自内部同样存在多样化的差异,不同具体应用场景之间往往存在重要差别,因此在这一领域能够形成统一的规范有限,存在进一步分类规范的要求;此外,对于某些极其特殊的应用场景,有必要单独规范。例如,对于人工智能在交通工具(自动驾驶汽车)的应用,我国 2017 年底开始陆续出台关于自动驾驶道路测试的地方性的监管规范,2018年正式出台中央级别的管理办法。2017年12月18日,北京市交通委正式印发《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见(试行)》和《北京市自动驾驶车辆道路测试管理实施细则(试行)》,为北京地区的自动驾驶测试活动提供正式管理规范,为国内首次关于自动驾驶测试的规定。《意见》和《细则》定义自动驾驶并要求:申请方需要是中国境内的公司,每家公司最多申请5台车;测试主体需要向第三方授权监管机构申请测试资格,并定期上传测试数据;每台测试车需要购买不低于500万的交通事故责任保险;每辆车必须在驾驶座上配备测试员,不能搭乘无关人员;出现事故后,按照交管规定处理,但需要由测试员承担相应的法律责任;测试车辆需要申请专用的测试牌照并张贴,并需要先通过封闭场地的测试才能进行公开道路测试;对违反细则规定的行为,测试主体的自动驾驶测试资格将被取消、公示,被禁测至少一年。2017年12月29日,工信部、国家标准化管理委员会共同组织制定了《国家车联网产业标准体系建设指南》系列文件,旨在发挥标准在车联网生态环境构建中的顶层设计和基础引领作用。2018年4月11日,由工业和信息化部、公安部、交通运输部共同印发了《智能网联汽车道路测试管理规范(试行)》,2018年5月1日起施行,该规范主要明确了测试主体、测试驾驶人及测试车辆应具备的条件,以及测试申请及审核,测试管理,交通违法和事故处理等内容。
无论如何,在各国将人工智能视为战略竞争科技的当下,为了更好促进人工智能科技快速发展和有效 推进人工智能合理应用,一部高水平的人工智能法是非常必要的,值得我们诚挚期待。

(编辑:宿州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读