习近平主席在联合国教科文组织总部发表重要演讲十年间
深度关注|推动纪检监察监督与财会监督贯通协调
推进国安机关工作高质量发展,持之以恒抓好作风建设

大数据“杀熟”背后是个人信息被滥用 监管如何跟上?

发布时间:2021-01-29  来源:央视网  字体大小[ ]

   原标题:大数据“杀熟”背后是个人信息被滥用 监管如何跟上?

  央视网消息:进入大数据时代,相信很多人都有这样的经历,并不是旅游旺季,机票价格却越搜越高;聊天时随口提到某款商品,一转身就在各大平台上看到相关商品的广告推送。在网络时代,我们能很快地找到自己想要的信息,但有关我们自己的信息数据却似乎也更容易被泄露,或在我们不知情的情况下被商家非法利用。下面是一个消费者因大数据被“杀熟”的案例。

  不久前,一篇质疑某外卖平台运用算法进行“杀熟”的文章引发热议。该平台的一位会员用户指出,同样的订单,他的配送费定价时常比非会员用户的更高。当时究竟是怎么一回事呢?记者联系到了这篇文章的作者肖先生。

  肖先生:“经常点同一家的外卖,忽然有一天我开了会员之后发现那个配送费价格较之前一下就涨出了三倍。之前一直是两元或者免费,然后那天我从中午十二点到下午一点半之间试了几乎一小时,配送费一直是比平时高,当时是六元。然后忽然就引起我的关注了。”

  肖先生告诉记者,之后的一周,他在点外卖的时候,经常同时用两部手机,分别登录会员账号和非会员账号进行对比实验,发现配送费上的差别总是存在。于是他将这些观察总结成一篇文章发表了在个人公众号上。

  肖先生:“后来我这篇文章出来之后,很多网友在后台留言遇到过这种会员‘杀熟’的情况。比如说一个单品一个鼠标,我非会员购买的时候100元,但是我用会员买价格变成了110元。我开了会员之后反而比非会员价格还要高,那我开会员的意义在哪?”

  文章引发热议后,相关外卖平台联系了肖先生,针对他提出的质疑,平台方给出的回复是:配送费上的价格差异是由于系统缓存而导致的误差。

  肖先生:“我尝试了很多次,在一周之内都是这种情况。那缓存的说法肯定说不过去。何来的位置缓存呢?在同一个地方,差异就是存在于会员和非会员之间。我咨询了一些技术方面的朋友,确实这个缓存存在误差在五米范围之内吧,但是造成这么大的误差是不可能的。”

  肖先生的疑惑,最终还是没能得到一个明确的解答。但是他的经历,却让大数据“杀熟”这个话题再次走进公众的视野。那么大数据“杀熟”现象的背后是什么?

  360度精准画像 平台大量采集个人数据

  据专家介绍,大数据杀熟,最关键的一步就是要对客户非常“熟悉”,并由此提供差异化选择,这在以往的一些商业模式中其实早已存在,而且很少有负面评价。

  北京航空航天大学法学院副教授 裴炜:“大数据杀熟本身来说,它背后其实是差异化的定价。比如说保险,不同的人可能保金或者是保额,或者保险的强制期限都会不一样。所以如果单纯说用差异化的定价来说的话,它不一定构成一个负面性的东西。我们所反感的是没有正当性基础的差别定价。”

  据中消协介绍,消费者对“大数据杀熟”等问题投诉不断增多,问题的核心是互联网平台对算法技术的应用问题,集中体现在推荐算法、价格算法、评价算法、排名算法、概率算法和流量算法等方面。

  中国消费者协会投诉部主任 陈剑:“比如说消费者在买商品或者服务的时候,平台会根据消费者的一些浏览过的页面,或者消费者一些喜好、包括他的行踪轨迹,会对他形成一些个性化的推荐。其实可能经营者对消费者进行了一些精准的个人数据画像。根据这种画像,相关的商品和服务只推荐给了他,所以他所获取的知情权就存在很大的缺陷。”

  互联网平台是如何“熟悉”每一位用户的呢?答案是通过用户画像。在精准的用户画像背后,是平台所累积的大量个人数据。

  清华大学人工智能国际治理研究院副院长 梁正:“用我的这些数据,你最后对我作的这样的一个刻画,这个是不是准确?太准确了的话,大家会担心被操控。稍微深入一点讨论就会发现,我在意的到底是本身这个叫做歧视性的定价,还是说背后所反映出来的我的信息被不当地采集和利用?”

  “APP偷听”技术可实现但成本高 效率低 法律风险大

  基于大数据的用户画像能让商家摸清你更爱吃辣还是酸,并通过算法把更符合你口味的餐厅排序靠前。用户数据往往是通过一个个手机APP被互联网平台采集的。而在我们和这些APP打交道的过程中,同样也有令大家担忧的问题不断出现,比如我们经常听到的“APP偷听”现象,那么"APP偷听"是否存在呢?

  APP治理工作组由全国信息安全标准化技术委员会、中国消费者协会、中国互联网协会、中国网络空间安全协会的一批网络安全法律、技术专家组成。

  技术专家首先通过一款由他们开发的模拟“APP偷听测试程序”,向我们演示了从技术上,APP究竟是否能够进行偷听,以及如果进行偷听,可能会出现哪些情形。

  “我们现在就进入这个测试的环节。我们假如这样发一个语音,当手松开了以后呢这个录音事实上还在继续。这个提示呢事实上,我们还可以把它去掉,那测试的整个过程是两分钟。”

  两分钟后,我们可以看到,在测试程序中生成了一条时长为120秒的语音。技术人员将语音数据导出后,经过核对,证实了当测试程序置于前台运行时,“偷听”是可以实现的。

  此外,经过对比实验,技术人员告诉我们,在测试程序退至后台,或者在手机处于锁屏的情况下,录音依然可以持续进行一段时间,但都会自行终止。只是不同的手机操作系统,锁屏下持续录音的时长略有不同。

  那么,在技术上可以实现的“偷听”手段,是否在市面上的APP中被滥用了呢?

  APP治理工作组专家 何延哲:“我们在做实际地对偷听的这种检测的时候,发现就确实,目前还没有发现真正意义上哪款APP它有这种,把语音信息上传之后的偷听行为。”

  APP治理工作组专家介绍,偷拍、偷录虽然在技术上可以实现,但是这种方式成本高昂、效率低下,而且存在高昂的法律风险。

  APP治理工作组专家表示,目前无论是行业标准还是技术层面,都在进一步强化对手机麦克风等敏感权限调用的透明度,以做到让手机使用者知情。

  APP治理工作组专家 何延哲:“现在我们看到有一些手机操作系统,已经实现了对麦克风使用的实时的提示。我们叫摄录指示器,也就是说当你要调用这个麦克风的时候,有一个状态栏,有一个红点或者说有一个提醒。”

  平台精准推荐是常年积累多渠道汇聚结果

  刚刚和朋友聊起健身计划,转眼网购平台都开始向你推荐健身用品;或者在一个平台检索过火锅底料,许多平台都开始向你频繁推荐涮锅食材甚至是锅具。如此精准的个性化推荐是如何实现的呢?

  APP治理工作组专家 何延哲:“一个APP我们说它可以把一个用户做360度的画像。这个画像我相信,它是一个常年积累的结果,这是第一; 第二,是多个渠道汇聚的结果。”

  据专家介绍,画像的准确性,主要是通过对我们的购买记录、浏览记录、搜索记录,甚至是下载过的应用程序清单等信息进行大数据分析,最终得以实现。

  APP治理工作组专家 何延哲:“为什么说有时候你会感觉被偷听呢?提供大数据的这个来源,它不是当前的这个APP,它可能是其他APP。你去做过一些操作,它会把相应的信息汇总到一起,它可能还会关联你的好友、关联你同一个区域内的人员。然后他们有的一些动作,它也可能会成为它推送广告的一个方向。”

  专家提示,用户可以在手机操作系统的权限设置里,找到麦克风权限,检查目前有哪些App被授权使用麦克风。根据自己的需要,用户是可以随时关闭对App使用麦克风的授权的。

  APP违法违规收集个人信息更应被重视

  APP治理工作组的专家们在对市面上的APP进行检测时,还发现了隐私政策篇幅长、用户难以读懂以及账户无法注销等诸多问题。

 

  “我们举一个例子。在测试的过程中,我们发现这一款壁纸的APP ,它的隐私政策竟然有一万多字。那我们看它到底写了什么。我相信没有任何一个人,会把这个隐私政策读完的。即便是像我们这种每天读隐私政策的人看得都很头疼。就比如说,这个隐私政策中写的这个位置信息。APP说我要位置信息,它说了一大堆理由,但是我看它这个理由和壁纸都没有什么关系。”

  北京航空航天大学法学院副教授 裴炜:“隐私政策究竟有没有真的服务到用户,有没有真的保护到个人,这块其实是属于一个断裂的状态。所以未来比较担心的一点,就是这种保护的形式化。”

  APP治理工作组设有“APP个人信息举报”微信公众号平台和专用举报邮箱。专家告诉记者,账号注销难,是目前用户投诉量很大的另一个问题。

 

  “先看一下这个APP。这有个账户注销的功能,我点开输入我的信息,然后下面发现一句话是‘账户存在墨币余额不能注销 ’。我点开之后发现这有20个虚拟币,是我新注册的时候它赠送的,不是我自己购买的。我就想我能不能把它用掉呢?上面写着49墨币。但是我只有20,就是我要充钱,我永远都除不尽那个数。所以我永远都注销不了。”

  中国人民大学未来法治研究院副院长 丁晓东:“我们从信息法律的研究上来说,经常有一个术语叫做‘数字烙印’。在这个网络社会上,踩的脚印全部都是被永久留痕的。在我们国家的个人信息保护法里专门作出了规定,这个我们说从法律权益上来说,它是属于个人的一种删除权。”

  北京航空航天大学法学院副教授 裴炜:“信息技术安全国标,其中涉及到个人信息安全规范里面,就专门提到关于这个注销。就是说用户你在注销或者是停止使用某种服务的时候,它的途径和方式应该尽可能地与你使用这个服务的时候,它的这个途径和方式是相同的。那么同时你在注销的过程中被要求提供的这种信息,不应该比你在使用App的时候使用的这些信息、提供的身份信息更多。”

  专家介绍,在数据要素的流通过程中,个人信息的采集,只是其中一个环节。保护个人信息安全,数据的储存、处理和流通环节,同样需要关注。

  中国人民大学未来法治研究院副院长 丁晓东:“如果把前端环节(数据搜集)就给封闭的话,其实对于人工智能和数据产业的发展,其实会造成很大的影响。那怎么样去调和呢?我想一个很重要的方面就在于说个人信息的搜集之后,一定要对它进行一个非常严格的全生命周期的一个管理。我们要有匿名化机制、模糊化机制。处理的时候我们可能要采取一些数据最小化的处理原则,处理必要的数据。在储存和流通环节以及保护泄露的问题上,尤其要采取一个非常高的标准。”

  安全边界需监管机构平台用户共同探寻

  如今,技术带来的便利和个人信息的保护,正处在一个摇摆天平的两端。在这个天平的“配平”过程中,法律扮演什么样的角色?

  中国人民大学未来法治研究院副院长 丁晓东:“我们传统上的消费者保护法,还要包括合同法对于格式条款上的应用、侵权法对于侵权问题上的应用,以及行政监管里面的很多问题。在这些法律里面都可以在一定程度上去援引。但是另一方面,由于很多问题都是由于个人信息和算法这些新技术所带来的,所以在一定程度上来说,也还存在着一定的短板,立法机关也在积极跟进当中。我们的民法典生效,可能会对个人信息的保护会提供很多法律上的支撑。那么个人信息保护法(草案)、还有数据安全法(草案)的制定,未来的话肯定也会提供很多的额外的保护。”

  如今,我们每个人都在大量地生产信息。专家表示,在当下这个由算法和大数据驱动的社会生活里,法律扮演的更多是兜底保障的角色。安全边界的划定,需要监管机构、平台和用户三方在互动中来探寻。

 

  清华大学人工智能国际治理研究院副院长 梁正:“从法律法规的层面来讲呢,应该是兜底。然后我们划定一些红线,不能够去影响到公共的安全。像数字经济的甚至有一些商业模式的迭代是很快的,这方面不能完全等到法律制定出来。针对每一个问题都可以有相应的技术解决方案来应对它,不是没解的。关键是我们要把规则制定清楚。”

中国法制传媒网摘编亓淦玉

【免责声明】:以上图、文、音/视频文章内容转载于网络(本网原创文章除外),其版权均属于原作者或归属权利人。我们尊重原创,也注重分享。转发推广仅供学习参考之用,禁止用于商业用途,并不代表本网赞同其观点。仅供交流学习了解法律、法规、政策,如无意侵犯到贵公司或个人的知识产权,部分文章转发推送时未能及时与原作者取得联系,若来源标注错误或无意侵犯到您的权益烦请告知本网制作采编部QQ号: 3555333776,微信号:GAN160003,请联系我们将立即删除或更正。电话:010-89525216。本网投稿邮箱:3555333776@QQ.COM。通讯地址:北京市通州区通胡大街78号(京贸中心)二层15号。本网原创文章欢迎转载,为尊重和维护原创权利,请转载时务必注明原创作者、来源:XXXXX网站。
点击查看更多评论>>发表感言:
验证码,看不清楚请点击更换。