脸书油管前大佬爆料:其实在你刷手机的背后,有无数人在盯着你(组图)
先来算一算,在打开这篇文章之前,你今天已经花了多久在刷手机上?
在网上冲浪的时候,大家都曾有过这样的疑惑吧:
为啥我刚聊完的商品,转眼就有广告推送到我面前?
为啥社交媒体随便刷刷一个小时就过去了?
为啥在网络上学习知识这么容易,但是反智的言论却越来越多?
为啥明明网络应该是更加自由的言论场,却变成了被逼站队互相谩骂的战场?
2020年9月,网飞推出了一部纪录片,名叫《The Social Dilemma》,中文翻译是《监视资本主义:智能陷阱》。
其实在你刷手机的背后,有无数AI在盯着你.....
这个片子的背后,都是社交网络最早期的开发者们,是Ins、FB、Google、油管、Firefox等等曾经的核心员工。
他们集体揭露,在社交网络背后,不仅仅是无数磨刀霍霍向韭菜的资本,还有他们自己开发出来的,逐渐脱离人类控制的AI……
看得我想把手机直接丢了,
正如豆瓣网友评论的:“年度最佳恐怖片”。
免费的社交网络?你我才是商品
使用各种社交网络的时候,即使我不充会员啥的,依旧可以免费刷信息,看视频....
看上去是免费的,然而其实,我们花在社交网络上的时间,被作为了商品,卖给了广告商……
我们看过的每一个视频,点赞过的所有内容,搜索过的东西,都在被社交媒体小心翼翼地监控着、记录着。
根据这些大佬的说法,他们收集的信息比这细多了:
甚至连在一张图片上看了多少时间,你发评论的心情,都是大数据的一部分。
你的年龄几许、爱好为何、收入多少,广告商轻而易举就能获得,然后极其准确地在社交网络上给你投放广告。
你的爱好、性格、消费习惯,那才是真金白银!
2. 越上瘾,越值钱
在免费提供服务的同时,很多APP的目标,就是让你花在他们上的时间,越长越好,越上瘾越好。
因此,他们在挖空心思的让你上瘾。
即使是APP上的最小的一个功能,都是精心考虑,故意让你上瘾的设计……
比如说 下拉刷新 ,是所有社交网络最普通不过的功能了,每次下拉,就有新的随机内容就出现在了屏幕上,让人充满了期待。
在心理学上,这个刷屏行为叫做“正积极强化”,听起来既“正面”,又“积极”。
实际上,下拉刷新的灵感来源,就是赌博用的老虎机:
——拉下控制杆,你就有可能中奖,每一次的拉动,数字全都不同
——拉下页面,可能就会看到你感兴趣的东西,每次刷新,出来的内容都不一样
不能说是极其相似,只能说是一模一样!
好嘛,这是直接对准了每个人都多多少少的赌性……
还有另一个例子,就是显示“对方正在输入...”。
我们在对话时,都期望对方可以很快回复,但传统的短信和邮件,发送后不会盯着它,该干啥干啥去——直到网络足够发达以后,才有了这个功能。
当你看到对方在回复你的过程,肯定不会直接关掉APP放一边,而是一直盯着屏幕期待ta的回信。
叮咚,于是你在这个app上花的注意力,又不知不觉成功增加了几秒。
这也是被刻意设计出来,增加我们对APP关注的……
点赞、分享、心情等等功能,全都是为此开发的。
即使是开发了这些软件,特别清楚自己产品成瘾魔力的工程师也承认,这种瘾,他们自己都很难戒掉。
3. 你的想法,可能是AI帮你决定的
光是让你上瘾,工程师们还不满足。
不光要让你每次刷出来新东西,这些新东西还最好都是你感兴趣的。
于是我们大家都特别熟悉的“推荐算法”就这样诞生了。
大部分人都觉得这种算法看起来没什么不好的,推荐我们看喜欢的东西,除了浪费点时间,能有啥毛病?
纪录片告诉我们,毛病大了!这些AI算法,它们不仅有自我意识,还能飞快地学习成长……
并且会针对你的性格弱点,给你灌输想法!
在纪录片中,举了一个最简单的例子——联想搜索。
如果在不同的城市和地区的Google搜索框中输入“气候变化是”,你会发现后面的联想词完全不同:
有的是“气候变化是最大的威胁”,有的则是“气候变化是一场骗局”。
怎么来的?算法根据当地人们的搜索历史,再结合你平时看的东西,自动推荐了它觉得你最会点开的词条。
如果大数据知道你是个怀疑论者,算法就先告诉你,气候变化就是骗局,快来看我这里有这些证据……
反过来如果大数据告诉算法你是个环保主义者,那它就疯狂地向你推荐气候变化的危害……
对于任何新的消息,在你还没形成思考的时候,算法就在一开始帮你决定了倾向。
随着你看相关内容的增多,AI会进一步学习,在你每次下拉刷新的时候,推送符合你观点的内容,你越看越认同,不断强化观点……
洗脑就这么简单。
举个例子,
2016年美国总统大选前,互联网上消息真假难辨,其中有一则阴谋论的谣言流传甚广:
说希拉里和民主党精英们在华盛顿一家披萨店的地下室,经营儿童性交易,每卖一个披萨,就有一个儿童被贩卖。
Hmmm,怎么想都觉得这消息不太靠谱,但是超级智能的脸书算法,把“披萨门”新闻,精准推送给了阴谋论者和川普的支持者,结果信的人越来越多。
最后居然有人为了“解救儿童”,持枪抢劫了这家披萨店。
而事实上那个披萨店连地下室都没有!
“新冠不存在”、“新冠来源于5G信号塔”的言论能被转发百万次,都有推荐算法打造信息茧房的身影。
所以这些反智言论,在互联网时代特别有市场,算法算到我们的弱点,全自动精准坑人这谁受得了啊……
而这一切,开发了算法的工程师们都没插手,只是AI在做它们被要求做的事而已——增加浏览和关注。
4. 你看到的不一定是你想看的,还有可能是别人想让你看的。
好了,于是乎,AI已经知道你喜欢看什么了。
比如某人喜欢看谣言,AI就会给他多推谣言。某人喜欢看阴谋论,AI就会给他多推阴谋论。
看似好像都是AI的自动推荐....
但是...
如果这样的推荐中,混杂了人为的故意推荐呢?
当别有用心的人故意散播一颗谣言的种子,推荐算法就能助纣为虐,将它扩大成一场灾难……
2018年缅甸,一条“少数族裔强奸佛教徒女孩”的假新闻,在数天内毫无阻拦地在脸书上传遍缅甸全国。
最初看到这条新闻的,是缅甸土生土长,一直对移民而来的少数群体有着敌意的人。
于是消息在人群中迅速扩散,脸书的算法帮助它的传播越来越大,从网络声讨,逐渐变成了线下攻击。
因为这一条谣言,缅甸人与罗兴亚族微妙的平衡被一夕打破,一场声势浩大的针对活动就这样开始了。
最终演变成了屠杀、烧村,甚至发生了违反人道主义的大规模强奸和其它严重犯罪行为。
操纵性言论,因为脸书的广告,可以精准投放到容易被操纵的人群,并且迅速通过算法在圈子中扩散。
这十年里很多国家的选举,背后都有脸书的身影,人人纷纷指控脸书在其中暗戳戳操纵着选民的思想。
最出名的就是2016年美国大选,脸书被曝出,5000万美国用户资料被窃取用于数据分析,预测他们的政治倾向,进行精准的新闻投放,疯狂洗脑。
5. 对抗科技带来的危机,只有驯服科技
——“要改变这一切,能实现么?”“不得不实现”
整个片子看下来,把社交网络带来的负面解释得是清清楚楚。
如果再不限制行业巨头和推荐算法,任它为所欲为,人类社会将走到分裂的边缘。
在纪录片中出现的这些人,都是社交网络的最初创造者,在意识到社交网络的道德困境后,选择抽身而退,思考如何止损。
这些大佬们在影片最后,给出了一个相对靠谱的解决办法:
政府立法监督,依靠公权力,限制对于互联网科技的滥用。
因为资本必然是逐利的,在这个以“人”为货品的市场上,不可能寄托于资本拥有道德,自我约束。