>首页> IT >

全球要闻:“AI换脸”火了,有人10分钟被骗400万,谁来担责?丨亮见31期

时间:2023-06-03 21:09:58       来源:腾讯网

“AI换脸”火了,有人10分钟被骗400万,谁来担责?丨亮见31期

丨划重点

1. 对AI生成内容进行标记是法律法规要求的,这不意味着平台能完全免责,平台还需要履行技术识别、停止传输、处置措施和报告等责任。


(资料图)

2. 直播间使用明星面孔,侵犯了明星的肖像权,还涉及到虚假宣传、欺诈消费者和不正当竞争等问题。

3. 如果在银行有能力识别非真实人脸的情况下间接导致了AI换脸诈骗给储户造成损失,这种情况下可能需要担责。

4. 消费者需要更加重视个人信息的保护,尽量避免无必要的授权,可以拒绝使用要求授权过多个人信息的应用。

丨概述

AIGC的爆火让人们看到了人工智能日常应用的可能,其场景覆盖文字/图片/音频/视频等形式的内容生成,在特定领域,AIGC相关的内容的质量、可靠性已经远超人类,然而这种高度的“仿真”,也衍生出了新的问题——AI诈骗。

北京市岳成律师事务所高级合伙人岳屾山认为,技术具有两面性,对待其态度不能一概而论,需要将其纳入法律框架下规范发展。而针对AI诈骗,岳律师认为个人信息泄露的情况仍很普遍,普通人在使用相关设备和软件时需尽量避免无必要的授权,但诈骗分子不断变化和“创新”,最根本的防范防范还是保持警惕、提高对诈骗的认知。

01

AI内容标记无法完全规避责任

刘兴亮:现在,许多平台对AIGC生成的内容会有明确风险提示标记,这种提示有效吗?

岳屾山:标记是根据法规明确规定的,要求新技术和应用来制作、发布、传播非真实音视频信息,应该采用显著的方式进行标记。标记只是一种规避责任的方式,因为法律要求标记,但并不意味着完全免除责任,除了标记之外还有其他的义务需要履行。

例如,平台应该部署一些用于识别违法违规音视频和非真实音视频的技术,如果发现违反法律禁止或规定的信息内容,必须依法停止传输这些信息,并采取删除等处置措施来防止信息的扩散。同时,还需要妥善保存相关记录,并向相关部门等进行报告。

所以,平台有很多义务需要履行,仅仅进行标记是不能完全免除责任的。

刘兴亮:新技术、新应用带来的潜在风险,我们应该采取什么样的态度对待?

岳屾山:因为涉及到较为技术性的内容,就我个人而言,对于新的技术或应用,包括新的营商模式和经营模式的出现,应该给予适度的关注和宽松的环境来培育它们,看它们是否能够发展起来。

不过,对于人工智能换脸,目前没有看到多少正面评价。

不过,也有少量的人尝试用这项技术“复活”已故亲人,以慰藉思念之情,我认为这可能是人工智能换脸技术对我们的生活和社会产生积极影响的一种可能性存在。

只要这项技术具有正面意义的可能,对待它的态度就不能一“封”了之,应在现有的法律框架内对其进行必要的规制,以避免它成为一匹脱缰的野马。

02

“AI孙燕姿”存在诸多侵权风险

刘兴亮:关于AI孙燕姿的话题,最近孙燕姿发布相关声明,意思是不会去追责,这种情况下用户能随便使用吗?

岳屾山:AI换脸明星翻唱,涉及的法律问题主要涉及肖像权。

民法典规定,未经他人同意使用他人肖像属于肖像侵权,使用AI换脸就存在这种可能性,特别是在直播间中使用明星的面孔进行直播,明显侵犯了明星的肖像权,因为明星不可能授权他人使用他们的面孔进行直播。另外,这种行为还涉及到虚假宣传、欺诈消费者和不正当竞争等问题。

直播中的AI换脸,来源:网络

有关“声音”的权利,民法典明确了将其按照肖像权规定处理。如果孙燕姿未允许他人使用其声音,就会构成侵权,并且可能还涉及侵犯姓名权的问题。此外,如果使用她的歌曲进行商业活动,还需要支付费用,并可能需要获得词曲作者等进行著作权的授权。

刘兴亮:以银行转账为例,转账过程中,因为人脸识别被骗,谁来承担责任,银行需要担责吗?

岳屾山:转账过程人脸验证,会有眨眼、摇头等动作的验证,如果这个过程中遭遇诈骗,银行是否需要担责,取决于银行在人脸识别技术方面是否存在一些罕见的漏洞。比如,通过调用摄像头时,银行APP能否辨认出真实的摄像头,或者是否使用了其他技术手段对人脸进行了改变。

如果在银行有能力识别非真实人脸的情况下,因为诈骗分子通过第三方设备,比如通过摄像头画面欺骗了银行的人脸识别系统,(给储户带来了直接损失),这种情况下银行可能需要担责;如果技术监测确实发现银行无法识别出这种情况,即技术无法达到防止欺诈的要求,就不能要求银行承担责任。

除了银行,也需要考虑平台是否有发现欺诈行为的标志,是否具备识别的义务等,如果平台违反了这些义务,相应地就要承担责任。

但实际上,很多诈骗行为都是点对点进行,银行或平台很少直接参与其中,诈骗分子往往会规避银行或平台的验证方式,以尽量减少被发现的可能,毕竟这是一种犯罪行为。

03

防范数据泄露,是反诈骗的核心

刘兴亮:现在有很多观点认为我们目前防范AI诈骗关键在于防范数据泄露,这种观点你认同吗?

岳屾山:个人信息泄露的问题一直都非常严重。电信诈骗之所以成功的一大原因就是因为诈骗者获取了相应的个人信息。

刑法中有关个人信息保护的方面规定了非法泄露公民个人信息属于侵犯个人信息罪,需要追究责任。在民法典的《消费者权益保护法》、《数据安全法》、《网络安全法》等法律中,都要求企业在收集个人信息时必须遵循合法、正当和必要的原则。特别是对于涉及人脸等生物特征的信息,属于敏感信息,每次收集都需要单独获得用户的同意,并受到其他限制性规定的约束。

这些法律法规,旨在保护我们的个人隐私,并要求所有收集到个人信息的企业,在处理和使用时都必须严格按照约定和法律规定进行,并具备必要的技术和软件条件来保护信息不被泄露。

所以,消费者需要更加重视个人信息的保护,尽量避免无必要的授权。如果某个应用要求我们授权过多的个人信息,可以拒绝授权,即使这样可能导致无法使用应用。现在法律也有明确,应用不允许索取过多个人信息相关权限,且不能拒绝用户使用。

例如,以前我们使用某个导航软件要求访问通讯录,实际上只需要位置信息即可,这种情况下,《国家的网络安全法》、《数据安全法》和《个人信息保护法》等都进行了详细的规定。

另外,诈骗分子通常会使用各种手段筛选目标客户,比如发送大量的短信,他们不需要知道每个人的具体个人信息,而是通过通用的手法来吸引潜在受害者的注意力。比如最近的“上门枪决”短信,诈骗分子不需要每个人都相信,只需要找到那些容易受骗的人,这种方式可以帮助诈骗分子最大限度地减少成本并加快筛选的速度。

近期在网络中热议的“上门枪毙”诈骗短信,来源:网络

04

技术不是万能的,治理与监管关键在人

刘兴亮: 对AI换脸诈骗的治理和监管还需要哪些主体,以什么样的形式参与?

岳屾山:社会治理的层面确实是多主体参与的,这样才能形成良好的氛围。在制定规则和框架方面,一方面是在政府层面或立法层面进行,需要有相应规则和标准来界定诈骗行为,这些规则可能需要在立法层面进行制定,包括对其性质和标准的界定等。

另外,通过立法或政府的行政政策可能需要一定时间,存在不及时的可能,所以很多时候可以通过行业协会的形式提前制定一些规范或标准,虽然它们可能没有强制力,但可以起到引导作用。

针对法律法规在落地过程中的执行,需要执法部门加强监管,且这种场景也考验监管的技术,我认为这种情况下双方都在看谁的技术更高超,谁能够限制住这种行为。技术本身并不是万能的,它的应用取决于人们如何使用和管理。

刘兴亮:针对不同的主体行为的规范,目前有哪些具体的法律法规?

岳屾山:目前在互联网信息服务深度合成管理规定方面已经有一些具体的规定,特别是针对人工智能和AI换脸等技术。

今年4月份,互联网信息办公室发布了关于生成式人工智能服务管理办法的征求意见稿,进一步规范了相关服务的管理。通过这些规定,针对人工智能和AI换脸等方面有了较为直接的管理措施。

国家法律层面也有一些原则层面的法律和规定,包括《民法典》、《网络安全法》、《数据安全法》、《互联网信息服务管理办法》等,这些法律和规定都涉及到保护个人信息和肖像权,以及对实施诈骗等行为应承担的责任,为相关问题提供了一定的规范。

刘兴亮:普通人在遭遇AI诈骗时应该怎样处理,有什么建议吗?

岳屾山:作为一名律师,我认为对于那些侵犯他人权益的行为,尤其是在涉及AI诈骗和肖像侵权的行为,受害者可以采取一些维权措施,以避免他人随意使用其肖像等信息,这种动作可以防止肖像被滥用,并对软件的使用和研发产生一定的约束。

我建议加强对肖像权的保护,特别是在如今AI换脸技术如此便利的情况下。除了个人的自我保护外,平台和执法机构也应承担起相应的责任,确保提供一种便捷的维权途径。

除了肖像权,类似问题也会涉及到著作权,如果消费者的肖像被制作成视频并由他人传播和使用,这涉及到视听节目的内容,平台可能更多地基于著作权方面的处理和保护,而不是针对肖像或其他行为。

在这方面,我建议更多地依赖平台。平台应该及时发现这类侵权行为,并提供便捷的投诉渠道或途径,以便及时处理这些问题。

另外,正如我们一直在讨论的那样,法律的威慑力往往不是来自其严苛程度,而是来自于执法的及时性。对于那些实施侵权行为的用户,平台方面应该采取相应的惩罚或限制措施。这完全可以在平台自身的范畴内实施,根据相关的用户协议和约定对其进行惩罚和限制。通过这样的方式,可以尽量减少侵权行为的发生,因为侵权有时候会成为一种上瘾的行为。

关键词: