人工智能之所以会受到广泛关注,一个重要原因在于人工智能与人们的生活结合得越来越紧密。与此同时,人们还需要认真思考这样一个问题,人工智能迅速向前发展,现有法律是否能跟上人工智能的发展速度。
人脸智能应用让生活更加便利 刷脸签到,听上去新奇,却已成为现实。
近日,有视频网站出现一段“上课点名弱爆了!中国传媒大学开启„刷脸签到‟,你敢试试吗”的视频。
在视频中,课堂上摆着一个平板电脑,学生们排队挨个上去刷脸签到。上课老师在旁边还提示,“下一个同学来”“抓紧”。
刷脸签到究竟有何玄机?记者采访了视频中的老师——中国传媒大学大数据挖掘与社会计算实验室主任沈浩教授。
据沈浩介绍,“这套刷脸签到系统主要是基于一家大型互联网公司推出的人脸识别技术,在通过系统刷脸识别之前,学生提交个人照片进行人脸图像采集。一个iPad Pro和一个刷脸签到考勤系统,学生站在屏幕前,摄像头记录学生的面部信息并与数据库比对便可以进行刷脸签到。另外,这套系统不仅能准确识别人脸信息,还能够对比两张人脸的相似度,这样就可以解决同一个人进行代签到的问题”。
“我想将人脸识别等人工智能技术推广到宿舍管理、食堂打卡等更广泛的方面。”沈浩说。
中国传媒大学一名学生告诉记者,“这种签到方式不仅节省时间,也让我们感觉到人工智能就在身边,感觉很新奇”。
“图像识别中的人脸识别是人工智能的核心技术。人脸识别技术也已经应用到很多场景,而且以后的应用场景会越来越多。比如高铁、机场的安全检查以及照相机、摄像机中的人脸识别等应用场景。在媒体领域可以用声音写新闻报道,通过计算机识别转换成受众喜欢的声音,上传到网络平台进行传播,这样也可以提高效率、扩大新闻的受众面积。再比如在警察寻找失踪儿童过程中,通过把失踪儿童照片上传到系统,可以快速便捷地识别出失踪儿童。目前人工智能的应用是爆炸式的,人工智能的应用也让我们的生活变得更加便利。”沈浩说。
在北京市中关村工作的王先生是一名科技爱好者,但凡出现新的科技产品,他都要尝试一下。
前不久,王先生购买了一个由国外某互联网公司推出的智能音箱。 “当时看评测挺好玩的,就海淘了一个。”据王先生介绍,这款音箱除了拥有播放音乐、添加日程表、定时闹钟等功能外,还可以控制家里的智能家居。
“可以和智能音箱对话,让智能音箱讲笑话、搜索网上的内容,与手机上的siri功能差不多。”王先生说,有一点不足就是必须用英文与智能音箱交流。
王先生还告诉记者,国内也有不少类似的产品。“在国外这家互联网公司推出这款产品后,国内许多公司也开始进入这个市场,纷纷推出了自己的智能音箱产品”。
王先生在经过对比之后,购买了一个由国内某互联网公司生产的智能音箱,这款智能音箱也能控制家里的智能家电。
“比如我对智能音箱说我下班了,智能音箱就可以打开屋里的灯和空气净化器。如果我说去上班,这些东西就会关闭。”王先生说。
“目前来看,智能音箱对话的内容还不太成熟,但是一些基本功能还是很方便的。听广播、音乐,设置闹钟、待办事项、购物清单等都很实用。”王先生说。
现阶段尚未改变现有法律关系
“人工智能的飞速发展,带来了应用的快速落地,产生了货币的两面效应。一方面,降低了风险,另一方面也带来了新的风险。以自动驾驶为例,一方面可以显著降低由于人工驾驶产生的疲劳驾驶、误操作带来的交通致死率,另一方面也可能因为网络入侵带来惨烈的交通事故。这时候,就需要不断进行场景测试验证,并赋予人工智能最为合理的选择方案来取得最佳平衡。”在亚太网络法律研究中心举行的“„网络与法律对话‟学术沙龙第三十二期——人工智能发展的法律挑战及其对策”上,英特尔(中国)有限公司法律政策总监续俊旗说。
续俊旗认为,人工智能的发展,将对社会治理、法律制度、监管乃至社会伦理等产生影响。比如,随着人工智能的高度智能化,机器越来越具有人的属性,可能对婚姻制度、家庭伦理等产生大的影响。对于社会治理、法律制度、政府监管等,也会带来越来越多的挑战。
“我们不会去制定一部人工智能法,而是在不同的领域、不同的产业探究人工智能的发展对该领域、产业的影响,有些问题可以适用现有法律规则,有些需要对现有规则进行修正,甚至制定新的法律规则。人工智能会对法律制度带来挑战,但现阶段无需过于担心。其实,人工智能没有从根本上改变我们现有的法律关系。法律关系是在社会活动中人与人之间产生的权利义务的分配关系。人工智能迄今还只是一个辅助工具。产生的问题,比如自动驾驶的侵权问题,归根结底还是可以在自动驾驶方案提供者、汽车厂商或者使用者之间进行归责而解决。”续俊旗说。
“既然目前对人工智能的判断是„工具‟的话,很多法规体系的建设可以加速推进。如自动驾驶技术都已经很成熟了,可以考虑加速完善相关的保险制度等。既然认定机器人是工具,则应打破„机器人面纱‟,该由谁承担法律责任,就由谁承担法
律责任。很多人似乎都在关注机器人的人格化,但在人工智能法律环境研究的初期,建议大家尽可能开拓思路。如人格的虚拟化(人的生命结束后的人格存续问题)、人工智能侦查(控制有犯罪动机的人)等也值得研究。”全球移动通信协会(GSMA)政策工作组成员、中国通信学会会士、中国联通研究院研究员金耀星说。
利用人工智能犯罪如何追究责任
随着人工智能发展方兴未艾,一些不法分子打起了歪主意。
今年9月,浙江绍兴警方公布破获全国首例利用人工智能技术窃取公民个人信息的案件,彻底摧毁43个犯罪团伙,抓获犯罪嫌疑人193人,成功截留被盗的公民个人信息10亿余组,缴获赃款600余万元。
据了解,被警方查封的平台叫作“快啊”,曾经是市场上最大的打码平台。它们在破解、窃取、贩卖和盗用个人信息实施诈骗上有着完整的链条,其中人工智能技术运用在识别验证码这个环节。
“„人工智能的犯罪问题‟是一个前沿中的前沿问题,刑法学界对于人工智能犯罪问题的研究还很少。”在亚太网络法律研究中心举行的“„网络与法律对话‟学术沙龙第三十二期——人工智能发展的法律挑战及其对策”上,中国社会科学院法学研究所、中国应用法学研究所博士后,中国法学会法治研究所副研究员刘灿华说,“我们要研究的是,现实中会出现什么人工智能的犯罪问题?这里的„犯罪问题‟,是指人工智能的类人行为导致社会危害结果而引发的是否构成犯罪的问题,而不包括损害人工智能的犯罪问题。”
根据刘灿华的总结,人工智能犯罪问题可能有这样三种情形:
利用人工智能技术实施犯罪,即因为人工智能的缺陷而产生的犯罪行为。由于设计上的缺陷或者硬件缺陷、故障等原因,机器人实施了危害行为。例如,购买毒品、机器人警卫误伤小孩、无人驾驶车交通肇事等,都是在现实中发生的案例。
人工智能“自主决定”实施的犯罪行为。将来如果人工智能进一步发展,机器人有自我决策能力的时候,可能会出现机器人自己决定实施某一“危害行为”,而若由自然人来实施这一行为则可能会构成犯罪。
“第一种情形不存在刑法学的难题,人工智能技术在这里只是一个犯罪工具。”刘灿华说,第二种情形的刑法学问题有两个。第一个问题,有关的行为不是人的行为,也就是说,机器的行为能否让人来负责、让谁来负责。“我们可以理所当然地想到是机器(人工智能)的制造者的责任。但是制造者对于其产品导致危害后果而要承担的刑事责任是有限的,不是说产品出问题了,就能导致刑事责任。那么制造者承担刑事责任的边界在哪里?与传统的产品刑事责任是否适用同样的规则?这些都是人工智能可能给我们带来的新问题。第二个问题,假设能够将机器人的行为当作是人的行为,但是在个案中,很难证明制造商在主观上有故意或者过失。这里我们可能需要讨论的是,在这个领域,是否要对故意或者过失重新解释,甚至引入严格责任。”
第三种情形所带来的刑法学问题无疑最具有颠覆性。
“当人工智能发展到一个很高水平,以至于机器人能像人一样„思考‟、一样地决定犯罪的时候,我们怎样去追究一个机器人的刑事责任?即使我们„定罪‟了,我们又如何处罚一个机器人?现在这些都是无法解决的问题,当然,随着技术的发展,法律也会随之完善,这就需要我们共同努力,继续深化研究探讨。”
因篇幅问题不能全部显示,请点此查看更多更全内容