“推荐算法”现在是网站平台所采用的技术方法,所以要注意,你今天在网上能看到的所有东西,都是网站平台选择性推荐的。这究竟意味着什么?很多人并不真正清楚这一点。
推荐系统的出现,原本是为了解决信息过载的问题,今天人类出版书报和资料的速度已经远远超过了单人阅读的极限,更不要说互联网了。一个稍微有点人气的论坛,要读完每天的所有新帖子也是一件非常费劲的事情,以至于大一些的论坛需要许多的版主来维护。再比如知乎,每天的新问题,新回答,数量之多,根本不是一个人能阅读得过来的。
事实上,人类从信息匮乏到信息过载,只用了区区几十年,面对海量的信息,必须要有新的技术手段加以解决。
首先引入的做法是分类,针对书籍,我们有中国图书馆分类法。雅虎早期的内容分类目录也是这一思想的体现。事实上,这一分类法并不少见,很早我们在分类书籍的时候,就有四大类:经史子集,以及分类生物的时候提出了7个层级:界、门、纲、目、科、属、种。今天打开腾讯的首页,仍然可以看到这些类别:新闻,视频,图片,军事,体育,NBA,娱乐,财经,科技,时尚,汽车,房产,教育,文化,星座,游戏等等。
不过,分类也解决不了问题,信息仍然在过载,甚至过载严重到给每一个物品赋予对应的类别都很麻烦,甚至仅仅是展示分类用的索引或者目录都很困难。这个时候就有了搜索引擎的用武之地,百度,谷歌,淘宝理论上都是搜索引擎,但搜索引擎存在的基础是,你知道有这个东西,但是不知道在哪里。所谓的未知有两种:已知的未知,和未知的未知。前者,你只是不知道答案,后者,你甚至根本不知道问题的存在。
这个时候,参考社会化推荐,人类就开始准备做推荐系统。推荐系统的一个基础原理是,物以类聚,人以群分,并且将这个原理用算法体现出来。举个例子,有人爱读《三体》,但是不知道《流浪地球》,《球形闪电》的存在,这个时候,网站平台就会通过算法自动推荐这些书,很多人对此一定会欣然接受的。如果推荐系统认定某人是个科幻迷,就会推荐科幻类的书籍,因为这肯定比推荐《羊皮卷》这种洗脑书要靠谱的多。
请注意,“推荐系统”的一个重大负面问题,就是无法避免社会上的人产生偏激,它反而会导致偏激。
事实上,网民的注意力,大概率都会集中在自己喜欢和支持的东西之上。这样画地为牢,一个个有形或无形的、围绕封闭自我的“圈子”就会被建立起来。推荐算法为你实现的,就是这种让人喜欢让人恨的东西,实际这是一个非常可怕的“圈子”。中国有句俗话说,“人贵自知之明”,但如果完全处于“自知”当中,沉迷于“自知”,与所有“其他”相隔离,也就等于把自己关进了精神监狱。明明自己所在的就是一个小圈子,但网民却会把它当成整个世界。
如果你看到自己的微博满屏都是你的“好哥哥”,但其实并不代表所有的人都在看你的“好哥哥”。对你来说,你的“好哥哥”就是97%甚至100%,但是对于整个微博的流量来说,可能只有10%,映射到生活现实中,可能连1%都不到。这就是推荐算法导致的观测偏差,在“推荐算法”的作用下,这种普通人的观测偏差,实际大得惊人。
同样的道理,支持观点A的人看到自己的首页上95%的观点都支持观点A,所以会很高兴。其实,支持观点B的人,同样也会看到页面上99.85%都支持观点B,他们更加高兴。在他们看来,同样只不过还剩下5%或者0.15%的人,似乎反对自己的观点,因而会得出一个存在数据支持但却并非真实的概念,他们都会认为自己“是正确的”。
观测的误差或偏差就是这样产生,“推荐算法”让你产生错误的感觉,让你自己决定自己看什么,然后为你建立一个小圈子,但万万不可将它当成整个世界。因为“推荐系统”及其它原因产生的信息偏置,很容易通过被偏置过的信息,洗脑人类,雕刻、塑造人类的生活和性格。
现代网站平台通过推荐算法,很方便在信息中注入数据。同时,仗势欺人似乎也变得很容易。因为大家都觉得自己一方面人多,自己的观点逻辑上也说得通——虽然他们的逻辑可能是基于错误事实推导出来的,但是没关系,我们现在人多,我们一人一口唾沫都能骂到你销号。于是,社会变得越来越极端,越来越呈现出偏激。这一切实际都与推荐算法的诱导和驱动有关,因为推荐算法提供了错误的印象。
在“推荐算法”大流行的时代,事实上的屏蔽被认为是一种“清洁”行动。充分而客观的认识,仅仅属于非常少数的专业人士,因为只有他们才能提供多元而充分的信息。可现实中的问题,基于信息过载、观测偏差以及信息重置,他们还未必就能够得到多数人的承认。(来源:安邦咨询)