取消算法推荐,是技术上的倒退吗?
算法推荐技术从90年代开始显露优越性以来,被充分运用于电商、社交、内容资讯等等众多领域,并均为这些领域的革新做出了贡献。
但近年来,算法推荐却不断受到质疑,无论是本身的有效性,还是其社会影响,都面临诸多争议。许多互联网产品也一改“唯算法至上”的理念,在算法与人工之间摇摆不定,甚至有不少产品开始进行取消算法推荐的尝试。这是技术上的倒退吗?算法推荐会成为互联网历史上的一段弯路吗?
一、算法推荐的发展简史
算法推荐分为许多类型,但简单来说,其原理就是基于用户的历史使用行为或相关信息,通过特定的数据模型,推测出用户可能的偏爱喜好。
1998年,Amazon平台上线了基于物品的协同过滤算法(ItemCF算法),将推荐系统推向服务千万级用户和处理百万级商品的规模。这一技术机制的革新产生了良好的效果,Amazon销售额提高了35%左右——这是推荐算法从实验室走向商业公司的一次成功应用。
2006年,一家原本做DVD租赁的公司悬赏百万招募算法推荐系统,希望改善其影片推荐效果。最终,凭借此次大赛的成果,这家公司成功转型为线上影片点播平台,并向用户普及了“推荐”的概念——这家公司就是Netflix。
视频平台YouTube同样以算法推荐为特色。它最早只通过点击和浏览量对内容进行排序,2012年YouTube开始采用复杂的推荐算法,尝试加入观看时长、分享、喜欢等参数来向观众呈现视频流。
2016年9月,YouTube将其技术文档整理成论文《Deep Neural Networks for YouTube Recommendations (深度神经网络在YouTube推荐系统中的应用)》发表,公布了从大规模可选内容中寻找最适合推荐结果的算法路径,探讨了深度学习带来的性能跨越式提升。
在视频网站之后,Facebook、Twitter等社交媒体也纷纷采用个性化信息流,将内容按用户兴趣程度进行排列。从时间顺序切换到算法乱序推荐,尽管初期引发了部分使用者的不适,但之后便被证明,这一举动带来了用户使用时长、广告点击率的大幅增长。
国内互联网行业同样拥抱算法。二十一世纪的第一个十年之后,内容资讯平台、短视频应用改变过往人工推荐的习惯,逐步加大算法推荐的比重,一大批代表性应用在这一浪潮中涌现出来。2016年又被称为“智媒元年”,以纪念算法推荐在内容分发领域所做出的重大贡献。
毫无疑问,身处信息大爆炸的背景下,算法推荐是继分类条目与搜索引擎之后的又一技术革新,它极大地提升了信息分发的效率和精准度,以此颠覆了人与信息的相处方式,也得益于这种能力,逐渐被应用于交通、金融、法律等等人类社会的其他领域。
与人工推荐相比,算法推荐的优越性不言而喻。但距“智媒元年”已经过去5年,算法推荐的发展虽然已经蓬勃,但它完全接手了互联网领域的内容分发吗?
答案是否定的。
二、一些互联网产品正在逐步尝试去算法化
事实上,许多互联网产品都开始考虑取消算法推荐机制的可能性,并正在做出尝试。
YouTube客户端和网页端都开始提供“不看推荐”和“清除历史观看数据”的选项,用户可以自由选择切换,其儿童频道YouTube Kids更是彻底取消了算法推荐,改用纯人工筛选内容。
Facebook新闻版块在2019年开始招聘人工编辑(主要是资深记者),以应对各国政府对其平台充斥极端内容的指控。
2017年成立的资讯分发平台Substack也是以人工推荐为特色,读者通过邮件订阅来接收内容,这吸引了不少怀旧的客户,仿佛瞬间回到了RSS时代。该产品在多轮融资后估值已经达到6.5亿美元。
为了与之抗衡,Twitter在年初收购了Substack的竞争对手Revue,而Facebook则新近推出了一款名为Bulletin的应用——二者均是以时事通讯作者为主的资讯平台,并采用编辑筛选,按作者订阅的模式。
诚然,算法推荐带来的用户和收入不可估量,但这么多的平台都选择重回时间流或人工推荐的形式,似乎也有那么一些势在必行的推力。除了商业模式上独辟蹊径的考量,或许也是对算法推荐负面效应的一种回应。
1. 极端内容
在《为什么极端内容更容易流行?》一文里,我们曾探讨过推荐算法对社交媒体上极端内容传播的影响。极端内容是一条获取流量的捷径,而基于“流量至上”的理念,算法往往在无形中为极端内容的传播充当了推手的角色。
以Facebook为例,近2/3加入极端主义小组的用户都是被Facebook推荐关注而非主动检索。YouTube也面临同样的问题,平台持续不断地调整其推荐算法,尽量减少有害内容的推荐量以控制传播,尽管如此,成效却依然了了。因此这家公司保留了超过1万人的审核团队,负责删除违规视频以及进一步改善各种机制和政策。
互联网公司也在尝试更智能的方式来自动识别极端内容,比如研发一些恶意内容检测插件,但这些工具并没有很好地投入使用——因为过于严格的审核会影响社区氛围,平台方不想因此造成过多的用户流失。
2. 信息茧房
不少读者应该都会有过刷短视频APP一刷几个小时忘了时间的经历,原因就在于源源不断的推荐会让人深受吸引无法自拔。算法推荐最初应用的目的,是为了提升检索效率, 降低用户的时间成本,快速匹配用户最需要的内容,但却逐渐演变成为增强用户粘性,延长使用时间的机制保障,这显然与本意有所偏离。
引发更多争议的是“信息茧房”效应。算法推荐会为了取悦用户,不断推荐其感兴趣的内容,这让用户以自身兴趣为砖瓦构筑起一道墙,从此只能沉浸在自己喜爱的、熟悉的已知的世界里,这就是“信息茧房”所描述的状态。
在学术界,针对这一理论的现实效应还存在不少争议,但可以确认的是,算法基于兴趣的个性化推荐,确实收窄了用户的信息接收范围,并减少了接受差异化讯息的可能性。在日渐封闭的信息环境中,用户只看自己想看的,只听自己想听的,并在不断重复和自我验证中强化固有观念,进而相信一些扭曲的故事。
要知道,现在还有不少YouTube用户坚信,地球是平的,人类并不曾登上月球,水可以变成汽油。这就是信息茧房的“功劳”。
3. 失效的严肃内容传播
在快速资讯、短视频领域,算法推荐或许有着优越的表现,但在严肃内容的传播上却频频失效。这也是为什么Twiiter、Facebook都选择将严肃新闻与社交内容拆分,并投资做独立的订阅资讯平台。
算法的基础是海量的用户数据收集,但是有些严肃内容,比如深度报道、行业知识等,本身受众面窄,没有办法为机器提供足够的基础数据,自然也无法给出合适的推荐。另外,就像许多文艺类电影常常叫好不叫座一样,很多优质内容与通俗内容放在同一个算法池中,可能很快就被淹没了,需要人工编辑捞出来。
美国作家尼古拉斯·卡尔《浅薄:互联网毒化了我们的大脑》,指出人们在享受互联网所带来便利的同时正在牺牲深度阅读和深度思考的能力:“我们对浏览和略读越来越得心应手,但是,我们正在丧失的却是专注能力、沉思能力和反省能力。”
这本书讲的是超链接对互联网使用者记忆力的损害,但是从条目浏览到搜索引擎再到算法推荐,信息获取的成本越来越低,留给人独立思考的机会确实也越来越少了。
三、取消算法推荐,不是技术倒退,是发展需要
在平台行动起来做取消算法推荐的尝试之前,许多用户已经提前意识到并展开行动。他们开始想办法改变互联网的使用方式,尝试摆脱算法的影响。基于行为类型的不同,又可以分为“佛系用户”“自律性选手”和“怀旧型用户”:
因为算法推荐需要获取用户行为数据才能够生效,于是有的用户选择隐藏自己的行为,“不登陆、不点赞、不关注、不评论”,不留使用痕迹,避免定位、相册、通讯录等权限被获取,这类属于佛系用户,他们的战略是尽可能让算法摸不清自己,从而在互联网上当一个透明人。
“自律型选手”主要警惕算法引发的沉浸效应,通过手机时长管理软件严格控制各个APP的使用时间,避免使用易上瘾APP,偶尔不得不安装就用完即删,用强悍的自制力对抗强大的诱惑,进而实现防沉迷的效果。
而“怀旧型用户”则会拒绝市面上的大多数资讯集合APP,他们会使用RSS工具将多个订阅源整合在一起,从而实现内容都是自己主动关注的更新,与被动推荐的思路截然相反。对年轻人来说,这是一项古老的服务,却是扩充视野、走出信息茧房很好的对策。
这么多年来,算法能够在各个领域得到大规模应用,对信息分发效率的提升以及社会运作有着不言而喻的意义。互联网产品尝试进行一些去算法化的探索,并不是在强行逆转技术的发展趋势。在一定程度上去算法化,只是让算法回归本意,更好地服务人类。
与此同时,不少互联网产品也在对现有算法进行着不断优化以改善用户体验,根本目的就是要找出一种更具“可持续性”的发展模式。
过去,我们说算法推荐的作用是把合适的内容推给合适的用户,那么,“去算法化”就是“把合适的工作留给算法,不合适的工作交给人工。”
作者:二因斯坦;编辑:王焕超;公众号:腾讯研究院(ID:cyberlawrc)
本文作者 @腾讯研究院
版权声明
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!