脸书油管前大佬爆料:其实在你刷手机的背后,有无数人在盯着你 .....
-
在网上冲浪的时候,大家都曾有过这样的疑惑吧:
为啥我刚聊完的商品,转眼就有广告推送到我面前?
为啥社交媒体随便刷刷一个小时就过去了?
为啥在网络上学习知识这么容易,但是反智的言论却越来越多?
为啥明明网络应该是更加自由的言论场,却变成了被逼站队互相谩骂的战场?
2020 年 9 月,网飞推出了一部纪录片,名叫《The Social Dilemma》,中文翻译是《监视资本主义:智能陷阱》。
其实在你刷手机的背后,有无数 AI 在盯着你 .....
这个片子的背后,都是社交网络最早期的开发者们,是 Ins、FB、Google、油管、Firefox 等等曾经的核心员工。
他们集体揭露,在社交网络背后,不仅仅是无数磨刀霍霍向韭菜的资本,还有他们自己开发出来的,逐渐脱离人类控制的 AI……
看得我想把手机直接丢了,
正如豆瓣网友评论的:" 年度最佳恐怖片 "。
免费的社交网络?你我才是商品
使用各种社交网络的时候,即使我不充会员啥的,依旧可以免费刷信息,看视频 ....
看上去是免费的,然而其实,我们花在社交网络上的时间,被作为了商品,卖给了广告商 ……
我们看过的每一个视频,点赞过的所有内容,搜索过的东西,都在被社交媒体小心翼翼地监控着、记录着。
根据这些大佬的说法,他们收集的信息比这细多了:
甚至连在一张图片上看了多少时间,你发评论的心情,都是大数据的一部分。
你的年龄几许、爱好为何、收入多少,广告商轻而易举就能获得,然后极其准确地在社交网络上给你投放广告。
你的爱好、性格、消费习惯,那才是真金白银!
2. 越上瘾,越值钱
在免费提供服务的同时,很多 APP 的目标,就是让你花在他们上的时间,越长越好,越上瘾越好。
因此,他们在挖空心思的让你上瘾。
即使是 APP 上的最小的一个功能,都是精心考虑,故意让你上瘾的设计 ……
比如说 下拉刷新 ,是所有社交网络最普通不过的功能了,每次下拉,就有新的随机内容就出现在了屏幕上,让人充满了期待。
在心理学上,这个刷屏行为叫做 " 正积极强化 ",听起来既 " 正面 ",又 " 积极 "。
实际上,下拉刷新的灵感来源,就是赌博用的
:
——拉下控制杆,你就有可能中奖,每一次的拉动,数字全都不同
——拉下页面,可能就会看到你感兴趣的东西,每次刷新,出来的内容都不一样
不能说是极其相似,只能说是一模一样!
好嘛,这是直接对准了每个人都多多少少的赌性 ……
还有另一个例子,就是显示 "
。
我们在对话时,都期望对方可以很快回复,但传统的短信和邮件,发送后不会盯着它,该干啥干啥去——直到网络足够发达以后,才有了这个功能。
当你看到对方在回复你的过程,肯定不会直接关掉 APP 放一边,而是一直盯着屏幕期待 ta 的回信。
叮咚,于是你在这个 app 上花的注意力,又不知不觉成功增加了几秒。
这也是被刻意设计出来,增加我们对 APP 关注的 ……
点赞、分享、心情等等功能,全都是为此开发的。
即使是开发了这些软件,特别清楚自己产品成瘾魔力的工程师也承认,这种瘾,他们自己都很难戒掉。
光是让你上瘾,工程师们还不满足。
不光要让你每次刷出来新东西,这些新东西还最好都是你感兴趣的。
于是我们大家都特别熟悉的 " 推荐算法 " 就这样诞生了。
大部分人都觉得这种算法看起来没什么不好的,推荐我们看喜欢的东西,除了浪费点时间,能有啥毛病?
纪录片告诉我们,毛病大了!这些 AI 算法,它们不仅有自我意识,还能飞快地学习成长 ……
并且会针对你的性格弱点,给你灌输想法!
在纪录片中,举了一个最简单的例子——联想搜索。
如果在不同的城市和地区的 Google 搜索框中输入 " 气候变化是 ",你会发现后面的联想词完全不同:
有的是 " 气候变化是最大的威胁 ",有的则是 " 气候变化是一场骗局 "。
如果大数据知道你是个怀疑论者,算法就先告诉你,气候变化就是骗局,快来看我这里有这些证据 ……
反过来如果大数据告诉算法你是个环保主义者,那它就疯狂地向你推荐气候变化的危害 ……
随着你看相关内容的增多,AI 会进一步学习,在你每次下拉刷新的时候,推送符合你观点的内容,你越看越认同,不断强化观点 ……
洗脑就这么简单。
举个例子,
2016 年美国总统大选前,互联网上消息真假难辨,其中有一则阴谋论的谣言流传甚广:
说希拉里和民主党精英们在华盛顿一家披萨店的地下室,经营儿童性交易,每卖一个披萨,就有一个儿童被贩卖。
Hmmm,怎么想都觉得这消息不太靠谱,但是超级智能的脸书算法,把 " 披萨门 " 新闻,精准推送给了阴谋论者和川普的支持者,结果信的人越来越多。
最后居然有人为了 " 解救儿童 ",持枪抢劫了这家披萨店。
而事实上那个披萨店连地下室都没有!
" 新冠不存在 "、" 新冠来源于 5G 信号塔 " 的言论能被转发百万次,都有推荐算法打造信息茧房的身影。
所以这些反智言论,在互联网时代特别有市场,算法算到我们的弱点,全自动精准坑人这谁受得了啊 ……
而这一切,开发了算法的工程师们都没插手,只是 AI 在做它们被要求做的事而已——增加浏览和关注。
4. 你看到的不一定是你想看的,还有可能是别人想让你看的。
好了,于是乎,AI 已经知道你喜欢看什么了。
比如某人喜欢看谣言,AI 就会给他多推谣言。某人喜欢看阴谋论,AI 就会给他多推阴谋论。
看似好像都是 AI 的自动推荐 ....
但是 ...
如果这样的推荐中,混杂了人为的故意推荐呢?
当别有用心的人故意散播一颗谣言的种子,推荐算法就能助纣为虐,将它扩大成一场灾难 ……
2018 年缅甸,一条 "少数族裔强奸佛教徒女孩" 的假新闻,在数天内毫无阻拦地在脸书上传遍缅甸全国。
最初看到这条新闻的,是缅甸土生土长,一直对移民而来的少数群体有着敌意的人。
于是消息在人群中迅速扩散,脸书的算法帮助它的传播越来越大,从网络声讨,逐渐变成了线下攻击。
因为这一条谣言,缅甸人与罗兴亚族微妙的平衡被一夕打破,一场声势浩大的针对活动就这样开始了。
最终演变成了屠杀、烧村,甚至发生了违反人道主义的大规模强奸和其它严重犯罪行为。
操纵性言论,因为脸书的广告,可以精准投放到容易被操纵的人群,并且迅速通过算法在圈子中扩散。
最出名的就是 2016 年美国大选,脸书被曝出,5000 万美国用户资料被窃取用于数据分析,预测他们的政治倾向,进行精准的新闻投放,疯狂洗脑。
—— " 要改变这一切,能实现么?"" 不得不实现 "
整个片子看下来,把社交网络带来的负面解释得是清清楚楚。
如果再不限制行业巨头和推荐算法,任它为所欲为,人类社会将走到分裂的边缘。
在纪录片中出现的这些人,都是社交网络的最初创造者,在意识到社交网络的道德困境后,选择抽身而退,思考如何止损。
这些大佬们在影片最后,给出了一个相对靠谱的解决办法:
政府立法监督,依靠公权力,限制对于互联网科技的滥用。
因为资本必然是逐利的,在这个以 " 人 " 为货品的市场上,不可能寄托于资本拥有道德,自我约束。
最早人们在发明汽车的时候,只是为了让人们的交通可以更加快速,没有意识到它可能带来的安全隐患。
但当科技带给人便利的同时,桎梏的负面效果也会逐渐暴露,总要找到改进它、限制它的方法,让科技更安全地为人类服务。
这是人类尝试限制算法的使用,让科技可以被安全应用的有效措施。
所以说啊,人类还是要在科技面前始终要留一点清醒,把安全放在首位,别让本该服务于人类的科技,变成束缚我们的枷锁。
今天在社交媒体上,看到了这样一条视频,在某种程度上,正是讲述了人们应该如何对待科技的态度。
影片的一开始,有一男一女在风景优美的环境中,赏景的赏景,冲浪的冲浪。
就在我以为两个人会有什么美好的相遇,结果镜头一转,居然两个人是戴着 VR 设备一起躺在床上?!
诶说真的,这比俩人躺床上各自玩手机还过分,实在是有点浪费了这良辰美景枕边人。
虚拟现实的世界,像极了社交网络,营造出的是我们想看到的样子,被科技的假象束缚的人,却忘了看看身边真实的人和感情。
编辑:赞赞
责编:杨帆