脸书油管前大佬爆料:其实在你刷手机的背后,有无数人在盯着你 .....

  • 发表时间:
    , 文章来源:MyZaker, 新闻取自各大新闻媒体,新闻内容并不代表本网立场

    *(photo:MyZaker)

    在网上冲浪的时候,大家都曾有过这样的疑惑吧:

    为啥我刚聊完的商品,转眼就有广告推送到我面前?

    为啥社交媒体随便刷刷一个小时就过去了?

    为啥在网络上学习知识这么容易,但是反智的言论却越来越多?

    为啥明明网络应该是更加自由的言论场,却变成了被逼站队互相谩骂的战场?

    2020 年 9 月,网飞推出了一部纪录片,名叫《The Social Dilemma》,中文翻译是《监视资本主义:智能陷阱》。

    其实在你刷手机的背后,有无数 AI 在盯着你 .....

    *(photo:MyZaker)

    这个片子的背后,都是社交网络最早期的开发者们,是 Ins、FB、Google、油管、Firefox 等等曾经的核心员工。

    他们集体揭露,在社交网络背后,不仅仅是无数磨刀霍霍向韭菜的资本,还有他们自己开发出来的,逐渐脱离人类控制的 AI……

    *(photo:MyZaker)

    看得我想把手机直接丢了,

    正如豆瓣网友评论的:" 年度最佳恐怖片 "。

    免费的社交网络?你我才是商品

    使用各种社交网络的时候,即使我不充会员啥的,依旧可以免费刷信息,看视频 ....

    看上去是免费的,然而其实,我们花在社交网络上的时间,被作为了商品,卖给了广告商 ……

    *(photo:MyZaker)

    *(photo:MyZaker)

    *(photo:MyZaker)

    我们看过的每一个视频,点赞过的所有内容,搜索过的东西,都在被社交媒体小心翼翼地监控着、记录着。

    根据这些大佬的说法,他们收集的信息比这细多了:

    甚至连在一张图片上看了多少时间,你发评论的心情,都是大数据的一部分。

    *(photo:MyZaker)

    *(photo:MyZaker)

    *(photo:MyZaker)

    你的年龄几许、爱好为何、收入多少,广告商轻而易举就能获得,然后极其准确地在社交网络上给你投放广告。

    你的爱好、性格、消费习惯,那才是真金白银!

    2. 越上瘾,越值钱

    在免费提供服务的同时,很多 APP 的目标,就是让你花在他们上的时间,越长越好,越上瘾越好。

    因此,他们在挖空心思的让你上瘾。

    即使是 APP 上的最小的一个功能,都是精心考虑,故意让你上瘾的设计 ……

    比如说 下拉刷新 ,是所有社交网络最普通不过的功能了,每次下拉,就有新的随机内容就出现在了屏幕上,让人充满了期待。

    在心理学上,这个刷屏行为叫做 " 正积极强化 ",听起来既 " 正面 ",又 " 积极 "。

    *(photo:MyZaker)

    实际上,下拉刷新的灵感来源,就是赌博用的

    :

    ——拉下控制杆,你就有可能中奖,每一次的拉动,数字全都不同

    ——拉下页面,可能就会看到你感兴趣的东西,每次刷新,出来的内容都不一样

    不能说是极其相似,只能说是一模一样!

    好嘛,这是直接对准了每个人都多多少少的赌性 ……

    *(photo:MyZaker)

    还有另一个例子,就是显示 "

    我们在对话时,都期望对方可以很快回复,但传统的短信和邮件,发送后不会盯着它,该干啥干啥去——直到网络足够发达以后,才有了这个功能。

    *(photo:MyZaker)

    当你看到对方在回复你的过程,肯定不会直接关掉 APP 放一边,而是一直盯着屏幕期待 ta 的回信。

    叮咚,于是你在这个 app 上花的注意力,又不知不觉成功增加了几秒。

    这也是被刻意设计出来,增加我们对 APP 关注的 ……

    点赞、分享、心情等等功能,全都是为此开发的。

    *(photo:MyZaker)

    *(photo:MyZaker)

    即使是开发了这些软件,特别清楚自己产品成瘾魔力的工程师也承认,这种瘾,他们自己都很难戒掉。

    *(photo:MyZaker)

    光是让你上瘾,工程师们还不满足。

    不光要让你每次刷出来新东西,这些新东西还最好都是你感兴趣的。

    于是我们大家都特别熟悉的 " 推荐算法 " 就这样诞生了。

    *(photo:MyZaker)

    大部分人都觉得这种算法看起来没什么不好的,推荐我们看喜欢的东西,除了浪费点时间,能有啥毛病?

    纪录片告诉我们,毛病大了!这些 AI 算法,它们不仅有自我意识,还能飞快地学习成长 ……

    并且会针对你的性格弱点,给你灌输想法!

    *(photo:MyZaker)

    *(photo:MyZaker)

    在纪录片中,举了一个最简单的例子——联想搜索。

    如果在不同的城市和地区的 Google 搜索框中输入 " 气候变化是 ",你会发现后面的联想词完全不同:

    有的是 " 气候变化是最大的威胁 ",有的则是 " 气候变化是一场骗局 "。

    *(photo:MyZaker)

    *(photo:MyZaker)

    如果大数据知道你是个怀疑论者,算法就先告诉你,气候变化就是骗局,快来看我这里有这些证据 ……

    反过来如果大数据告诉算法你是个环保主义者,那它就疯狂地向你推荐气候变化的危害 ……

    *(photo:MyZaker)

    *(photo:MyZaker)

    随着你看相关内容的增多,AI 会进一步学习,在你每次下拉刷新的时候,推送符合你观点的内容,你越看越认同,不断强化观点 ……

    洗脑就这么简单。

    举个例子,

    2016 年美国总统大选前,互联网上消息真假难辨,其中有一则阴谋论的谣言流传甚广:

    说希拉里和民主党精英们在华盛顿一家披萨店的地下室,经营儿童性交易,每卖一个披萨,就有一个儿童被贩卖。

    Hmmm,怎么想都觉得这消息不太靠谱,但是超级智能的脸书算法,把 " 披萨门 " 新闻,精准推送给了阴谋论者和川普的支持者,结果信的人越来越多。

    最后居然有人为了 " 解救儿童 ",持枪抢劫了这家披萨店。

    *(photo:MyZaker)

    而事实上那个披萨店连地下室都没有!

    " 新冠不存在 "、" 新冠来源于 5G 信号塔 " 的言论能被转发百万次,都有推荐算法打造信息茧房的身影。

    所以这些反智言论,在互联网时代特别有市场,算法算到我们的弱点,全自动精准坑人这谁受得了啊 ……

    而这一切,开发了算法的工程师们都没插手,只是 AI 在做它们被要求做的事而已——增加浏览和关注。

    4. 你看到的不一定是你想看的,还有可能是别人想让你看的。

    好了,于是乎,AI 已经知道你喜欢看什么了。

    比如某人喜欢看谣言,AI 就会给他多推谣言。某人喜欢看阴谋论,AI 就会给他多推阴谋论。

    看似好像都是 AI 的自动推荐 ....

    但是 ...

    如果这样的推荐中,混杂了人为的故意推荐呢?

    当别有用心的人故意散播一颗谣言的种子,推荐算法就能助纣为虐,将它扩大成一场灾难 ……

    2018 年缅甸,一条 "少数族裔强奸佛教徒女孩" 的假新闻,在数天内毫无阻拦地在脸书上传遍缅甸全国。

    *(photo:MyZaker)

    最初看到这条新闻的,是缅甸土生土长,一直对移民而来的少数群体有着敌意的人。

    于是消息在人群中迅速扩散,脸书的算法帮助它的传播越来越大,从网络声讨,逐渐变成了线下攻击。

    因为这一条谣言,缅甸人与罗兴亚族微妙的平衡被一夕打破,一场声势浩大的针对活动就这样开始了。

    *(photo:MyZaker)

    最终演变成了屠杀、烧村,甚至发生了违反人道主义的大规模强奸和其它严重犯罪行为。

    操纵性言论,因为脸书的广告,可以精准投放到容易被操纵的人群,并且迅速通过算法在圈子中扩散。

    *(photo:MyZaker)

    *(photo:MyZaker)

    最出名的就是 2016 年美国大选,脸书被曝出,5000 万美国用户资料被窃取用于数据分析,预测他们的政治倾向,进行精准的新闻投放,疯狂洗脑。

    *(photo:MyZaker)

    —— " 要改变这一切,能实现么?"" 不得不实现 "

    整个片子看下来,把社交网络带来的负面解释得是清清楚楚。

    如果再不限制行业巨头和推荐算法,任它为所欲为,人类社会将走到分裂的边缘。

    在纪录片中出现的这些人,都是社交网络的最初创造者,在意识到社交网络的道德困境后,选择抽身而退,思考如何止损。

    *(photo:MyZaker)

    这些大佬们在影片最后,给出了一个相对靠谱的解决办法:

    政府立法监督,依靠公权力,限制对于互联网科技的滥用。

    *(photo:MyZaker)

    因为资本必然是逐利的,在这个以 " 人 " 为货品的市场上,不可能寄托于资本拥有道德,自我约束。

    *(photo:MyZaker)

    *(photo:MyZaker)

    *(photo:MyZaker)

    最早人们在发明汽车的时候,只是为了让人们的交通可以更加快速,没有意识到它可能带来的安全隐患。

    但当科技带给人便利的同时,桎梏的负面效果也会逐渐暴露,总要找到改进它、限制它的方法,让科技更安全地为人类服务。

    *(photo:MyZaker)

    这是人类尝试限制算法的使用,让科技可以被安全应用的有效措施。

    所以说啊,人类还是要在科技面前始终要留一点清醒,把安全放在首位,别让本该服务于人类的科技,变成束缚我们的枷锁。

    今天在社交媒体上,看到了这样一条视频,在某种程度上,正是讲述了人们应该如何对待科技的态度。

    影片的一开始,有一男一女在风景优美的环境中,赏景的赏景,冲浪的冲浪。

    *(photo:MyZaker)

    *(photo:MyZaker)

    就在我以为两个人会有什么美好的相遇,结果镜头一转,居然两个人是戴着 VR 设备一起躺在床上?!

    *(photo:MyZaker)

    诶说真的,这比俩人躺床上各自玩手机还过分,实在是有点浪费了这良辰美景枕边人。

    *(photo:MyZaker)

    虚拟现实的世界,像极了社交网络,营造出的是我们想看到的样子,被科技的假象束缚的人,却忘了看看身边真实的人和感情。

    编辑:赞赞

    责编:杨帆

    *(photo:MyZaker)