图片 1

ai隐患重重?人工智能之初应当性本善

当下,人工智能正在以革命的形式横扫科技圈。智能音箱、alphago、无人驾驶、nlp……世界发生了深刻的变化,我们可以时刻感受到科技带来的便利与乐趣。如同电力、蒸汽改变人类世界一样,人工智能也逐渐渗透进了我们的毛细血管当中。

图片 1观众在首届中国国际智能产业博览会上体验医疗人工智能产品。
新华社发

在阿里巴巴、谷歌等国内外科技巨头的引领下,国内有诸如旷视科技、极链科技video++、依图科技等聚焦于人工智能垂直领域的初创企业蓬勃发展。但与此同时,人工智能带来的安全隐患与道德争议,也让各界对ai治理更加重视。新兴技术的商业化之路,如果方向不稳,终将是空中楼阁,ai的发展之路,需要建立在“以人为本”的初心上。

核心阅读

来自科学和社会的双重警告

人工智能技术和应用飞速发展,在推动经济社会创新发展的同时,也带来安全、伦理、法律法规等方面的风险挑战。

人工智能发展带来的安全隐患与道德争议,包括数据泄露、算法偏见、ai技术被滥用、安全隐患、法规不完善等问题。例如ai技术被滥用引发安全威胁。智能化网络攻击软件具备一定的自我学习能力,可模仿系统中的用户行为,并不断改变方法,以实现长时间停留在计算机系统中的目的,黑客则可以通过人工智能发起网络攻击,引发安全威胁。例如不法分子利用人工智能电视的各种安全隐患进行:远程控制电视,远程安装恶意软件,远程监控家庭等,造成用户隐私泄露或财产损失。

随着数据越来越多被收集,应用场景增加,用户个人信息泄露的风险也随之提升。

近来,ai换脸技术应用于明星影视剧中引起热议,人脸识别技术已经得到普遍应用,诸如上班打卡、刷脸购物、支付、手机解锁、抓交通违章等场景,拥有大量的用户群体。假如有人利用ai
换脸技术在这些领域弄虚作假,人脸识别又无法辨识真伪的话,那么个人隐私信息、财产等都会被盗,后果难以想象。

人工智能的研究和应用要有伦理和法律界限,即应以人类的根本利益和责任为原则。

隐私问题是数据资源开发利用中的主要威胁之一,智能系统掌握了个人的大量信息,这些数据如果使用得当,可以提升人类的生活质量,但如果出于商业目的非法使用某些私人信息,就会造成数据泄露、隐私侵犯。去年,科技部公布了6张行政罚单,其中涉及基因隐私问题,公众对于基因隐私的担忧愈加严重。虽然国内正在推进电子病历等医疗大数据的科研应用,但仍存在数据使用的安全规范和法律保障不够等问题。

刚刚结束的全国两会上,“拓展‘智能+’”首次被写入今年的《政府工作报告》,作为未来的重要基础性技术,人工智能已连续三年出现在《政府工作报告》中。可以预见,随着人工智能、大数据的深入应用,生产生活的数字化转型是大势所趋。

其三,目前的人工智能系统目前还不够成熟,技术缺陷导致工作异常,可能出现安全隐患。例如机器人、无人智能系统的设计或生产不当会导致运行异常,近年来已有多起安全事故发生,waymo无人驾驶汽车事故、uber无人驾驶汽车撞死了行人、特斯拉车祸等让大家对无人驾驶的安全性打上了问号。ai医疗领域,在图像诊断等领域以实用化为目标的开发正不断推进。如果配备疾病识别ai的医疗设备投入使用,有望通过ai分析大量的医疗图像,从而更易发现病变部位。

人们在拥抱人工智能、迈向数字社会的同时,也需要正视人工智能等新技术应用在安全、伦理、法律法规、社会治理等方面的挑战。只有未雨绸缪,研判和防范潜在风险,才能安享“智能+”的时代红利。

而伦理问题可能是人工智能技术带给人们最为特殊的问题,未来人工智能不仅具有感知、认知和决策能力,还会形成不同个性,在决策中可能会遵循与人类不同的逻辑,造成严重后果,对社会文明产生不良影响。

人工智能应用方兴未艾,同时也带来安全风险隐患

人工智能治理的未来规划

前不久,一项人工智能深度换脸技术引发争议。原来,这项技术能做到几乎毫无痕迹地给视频中的人物“换脸”,引发人们对隐私和肖像权被侵犯的担忧。更深的担忧在于,如果这一技术被滥用,是否意味着大量视频会被“移花接木”?

人工智能的影响普及全球,然而目前还没有任何实质的政策或措施去制定能使人工智能的潜力最大化并管理其风险的治理机制。这并不是因为政府认为人工智能的治理不重要,而是因为这需要政策制定者、企业和用户等所有利益相关者一起去打开“潘多拉”魔盒,去讨论所有可能涉及到的问题。

今年全国两会上,人工智能、大数据等技术应用带来的安全风险,成为代表委员关注的焦点之一。全国政协委员、360集团董事长兼首席执行官周鸿祎就表示,安全应该成为人工智能发展的基础与前提。全国人大代表、苏宁控股集团董事长张近东也提出,数据安全是数字中国建设的重中之重,发展高质量的数字经济,需要加强对数据的安全保护和合规共享。

人工智能的基石是数据,政府和企业在实际应用中所收集的数据如若被不当地处理或操纵,则会引发比以往数据隐私丑闻更大的风险,以及政府和企业尚未内化的声誉风险。因此,要防止大数据和人工智能的滥用和失控,应该从意识形态开始建立科学的数据价值观体系。

从信息安全角度看,当前人工智能应用的安全风险点主要有哪些?

除了从技术安全角度研究确保ai安全的可行技术方法和手段外,还需要从伦理层面为ai安全提供引导和约束,以确保“ai向善”。伦理规范需要在公司、行业、国家层面就人工智能伦理原则和框架达成共识并落实到人工智能研发应用中,因为在技术加速、法律滞后的趋势下,需要更多依靠伦理规则来发挥事前的引导和规范作用,来确保ai向善。

中国信息通信研究院移动安全联盟秘书长杨正军说,人工智能高度依赖海量数据的采集和训练分析。随着数据越来越多被收集,应用场景增加,用户个人信息泄露的风险也随之提升。

同时,社会也亟待法律规范的制定,从具体的行业出发对自动驾驶、无人机、医疗诊断、机器人等具体的人工智能应用进行监管,以实现鼓励创新与保障安全的平衡。国际标准、规则的制定可以确保人工智能的研发应用符合伦理、国际法等共同性要求。

“人工智能算法不仅能直接采集用户个人信息,也会深度挖掘分析看似不相关的数据。”杨正军介绍,他们开展的一项调研显示,当前滥用个人信息现象较为普遍。同时,人工智能及大数据场景下无所不在的数据收集、专业化多样化的数据处理技术,使得信息主体难以了解、控制其信息是如何被收集和利用的。信息安全保护已经成为人工智能发展的重要课题。

未来已来,普惠全民

专家表示,技术本身是中性的,只要利用得当,人工智能也能用来提升网络安全水平。比如,人工智能在识别恶意代码方面就很有优势。

未来的人工智能会发展怎样已有迹可循,而构建一个开放的人工智能生态系统,确保技术进步造福人类更是我们应该关注的。当下的中国正进入新技术带来的全球大变局,政府、科技公司、学术机构和用户等所有利益相关者应该联合起来,坚持以未来共同体的心态,建立积极的生态规则。

北京神州绿盟科技有限公司安全研究员吴子建说,恶意代码往往是基于一些开源代码修改而成,它们通常有相似的行为模式。借助人工智能技术训练的检测工具,能够比较高效地发现恶意代码。

科技的进步带来的是社会生活方式的重塑,普罗大众都能平等地享受科学技术带来的便利与可能。在这个机会与挑战并存的时代,让我们以负责任的态度开启智能美好生活。

人工智能技术也普遍用于企业内网安全防护。吴子建介绍,传统的防护手段是在网络的入口处设置防御措施,但内网之间很少进行防御。采用人工智能等技术手段关联数据,可以有效检测内网中的异常。与传统的方法相比,这种方法不仅能发现已知威胁,还可以检测到未知风险。

吴子建认为,业内还需要做更多深入的研究,不断提升人工智能在安全防护上的价值。

应提前研判智能时代的法律伦理风险,引导人机良性合作

人工智能的应用越来越多,衍生出一系列伦理、法律难题。比如,无人驾驶汽车发生交通事故时如何界定责任,医疗外科手术机器人出现意外怎样处置……

“人工智能的研究和应用要有伦理和法律界限,即应以人类的根本利益和责任为原则,以实现人类根本利益为终极目标。这一要求也是人工智能和人的关系决定的。”中国人民大学法学院副教授郭锐认为。

“当前技术条件下,智能机器尚未具备伦理决策的能力,但其决策会引发有伦理意义的后果。”郭锐认为,通常法律针对的是能够遵循这些原则的主体,也就是自然人或者法律看作是主体的组织,但考虑到人工智能的特征是对人的智能的模拟、延伸和扩展,因此伦理原则应当适用于人工智能系统。

北京师范大学哲学学院教授田海平认为,人工智能的主体构成不是孤立的个体,而是多种关联形态的总和。“人工智能的构成主体分为研发者、生产商、运营商、电信网络服务商等。一旦发生交通或医疗事故,由于无法找到某个确定的责任主体,给责任界定带来很大困难,因此需要确立代理人来界定责任与权利。”

近年来,学界和产业界日益重视人工智能中的伦理与法律问题,并推动制定相关技术标准及社会规范。专家表示,人工智能伦理法律涉及科学界、企业界,哲学、法学等多个领域,有必要成立应对人工智能发展的联盟组织,吸纳各方面的力量,共同推进相关研究。

郭锐建议,要考虑到人工智能开发和部署过程中的权责归属,通过为技术开发者、产品生产者或者服务提供者、使用者界定权利和义务,让自动驾驶、无人机等人工智能应用安全落地。

专家表示,人工智能大规模进入人们生活之前,还应建立相对统一的风险评估指标体系,设立具体、可操作的指标,为相关研究及应用提供指引。

专家特别提醒,人和机器各有优势,要互相了解才能实现人机协作,但人还是人机关系的主导者。惟其如此,才能将人工智能引向人机合作的良性发展道路。

全球人工智能法律治理面临共同难题,当前应加强个人隐私安全管理

针对人工智能应用在安全、伦理等领域的潜在威胁,世界各国已经开始了相关法律治理研究。

杨正军介绍,各国对人工智能风险的关注重点和重视程度有所不同。以安全为例,美国关注人工智能对国家安全的影响,2018年3月美国国会发起提案,建议成立国家人工智能安全委员会,并将制定相关法案;欧盟和英国关注人工智能对隐私、就业及伦理的影响;俄罗斯、以色列、印度则重点关注人工智能在国防领域的应用以及对军事安全的影响。

北京师范大学刑科院暨法学院副教授、中国互联网协会研究中心秘书长吴沈括表示,在规范人工智能发展方面,我国起步较早。2017年7月,国务院颁布《新一代人工智能发展规划》;2017年12月,工信部发布《促进新一代人工智能产业发展三年行动计划(2018—2020年)》,都对人工智能产业的规范发展提出了要求。

“这些政策能够引导和助推相关产业的发展。关于人工智能技术标准,我国也发布过一些文件。然而,当前立法中对于人工智能带来的安全问题还存在比较大的空白,这也是全球人工智能的法律治理面临的共同难题。”吴沈括说。

随着人工智能应用的深入,其附属的相关风险也日益凸显,加强对人工智能相关的法律治理至关重要。人工智能法律治理呈现出哪些趋势,现实中又有哪些需要迫切注意的问题?

吴沈括认为,人工智能立法治理上可能会呈现出三个趋势:一是立法将更加细化,更有针对性。比如,针对自动驾驶、机器人、生物识别等领域颁布一些规范性文件,立法监管也会更加多元;二是立法将与产业特性紧密结合;三是立法将以规范为主,监管则重在为产业发展提供指引。

“由于法律往往存在一定的滞后性,考虑到人工智能等新技术应用前景广阔,立法需要预留一定的空间,尽量实现产业应用与风险前瞻的恰当平衡。在确定监管什么内容、如何监管以及怎样执行时,要把握好力度,不宜影响产业的发展活力。”吴沈括说。

杨正军说,从行业调研情况来看,当前应该加强个人隐私安全管理。他建议,隐私保护应从立法监管和技术能力提升两方面入手:一方面,针对我国个人信息保护法律条款分散、不成体系的现状,加快统一立法,明确数据不当收集、使用、泄露等的责任,同时也要界定好数据归属权等问题;另一方面,应加强新技术在个人隐私保护方面的应用。

数据的合理合法收集是数据利用的前提。专家表示,我们不应回避智能化与隐私安全保护的冲突,而应积极作为,找到智能时代技术应用与风险防护的最大公约数,为智能生活保驾护航。

相关文章

发表评论