“近期生活状态被各个APP的算法吃透”:用户对算法的感知及规训
01 用户对算法的感知
从货币市场基金、股票、退休账户到我们收听的音乐,无不受到算法技术的影响,它甚至可以决定我们能否获得器官移植和配偶选择。这表明算法已愈来愈深地嵌入到我们的日常生活中。
以往研究认为,由于知识和技术的门槛,算法技术的程序和原理被技术开发者和设计者置于某种框架的同时,也对用户形成了“黑箱”,而算法编码所制定的价值观及特权也被纳入“黑箱”。
由此,算法成为了用户的“控制者”而不是“代理人”。然而,近年来有研究发现,用户对算法具有一定的感知能力并可以据此调整自己的行为,从而对算法进行规训,使算法为我所用。
如有用户在社交媒体上表示“近期生活状态被各个APP的算法吃透。”“QQ音乐的算法越来越差了,怎么调教过还给我推难听的歌啊?”“我爱看,抖音记住多给我推帅哥”……
这表明部分用户不仅感知到了算法推荐的存在而且可以根据自己的需求调整社交媒体的使用行为。那么,用户是如何感知到算法的存在的呢?
首先,在用户面对个性化推荐内容时,他们较为容易感知到算法的存在,如有用户在抖音视频评论区下发表评论:“不过就是多看了一会儿,就一直给我推他了。”这表明用户可以根据推荐的内容追溯自己的使用行为,进而依据自己的经验来理解算法的运作机制。
除发现曾看过的同类内容又被推送到自己的手机页面时以外,用户在购物平台发现自己和朋友聊天时所涉及的商品会被立马推送至购物平台的首页时,也可以明显地感知到算法的存在。
(图片来源于抖音截图)
其次,在用户发现推荐的内容与自己的兴趣相关程度较低,且自己无法很好地控制推荐的内容时,他们会明显感知到算法的存在。
例如,当用户在进行有目的的网购时,尽管用户清楚地知道自己想要购买什么商品,但由于一些商品推送信息的突然出现,部分用户在最终还是会购买一些与自己真正需求无关的商品。
这时他们会发现平台并不像往常一样全部推荐他们感兴趣的内容,而自己也并不能有效地控制这类内容的推荐,这种与以往不同的体验会使他们较为清晰地意识到算法的存在。但这并不与算法的智能推荐功能相矛盾。推送与用户兴趣相关程度较低的内容并不是算法“失灵”,而是算法通过排序、排除等实际操作使商品信息流入用户界面,从而促使用户购买的另一种手段,在一定程度上也使得资本变得可见。
在这种情况下,用户往往会认为算法的效用较大,自己并不能对其进行有效的控制,由此产生规训算法的想法。
02 基于认知和体验的算法规训行为
用户对算法的认知和体验,便是用户对算法进行规训的前提和动力源。这种对算法的感知、体验以及由此产生的情感可能会引起用户对算法的反思,并有助于加深用户对算法规则和功能的理解,由此指导用户的媒介使用行为。
因此,部分用户可以根据以往经验明确地知道采取何种个性化策略来使算法变得真正“个性化”。通过这些策略,他们可以干预界面内容推送的组成,实现对算法的规训。
然而,由于不同的用户对算法推荐的认知、体验及评价不同,其规训算法的策略也有所不同。部分用户较为接受并赞扬算法的智能性及其给日常生活带来的便利性,相信如果用户与算法系统按照技术开发者和设计者的意图进行交互,那么算法就能进行最佳的工作,从而增强用户搜索引擎、社交媒体和智能助手等的使用体验。
因此,这些用户会积极地与算法进行互动,向系统输入尽可能多的相关数据,以优化其内容推送,如有用户坦称:“我把自己的生活交给了一个图像识别算法,因为它聪明得多。”尽管这在一定程度上体现了算法对用户的控制,但这并不意味着用户处于“技术无意识”的状态。
部分用户认为,以同意被算法监控来换取好的服务与产品,是一场公平的交易,他们通过向算法系统提供更多的用户信息和行为数据推动算法更加精准,从而达到了规训的目的,加强了与算法系统的交互。然而,并不是所有用户都采用上述积极的方式来进行算法实践并规训算法,部分用户对算法掺杂着负面和正面的评价,因此在规训算法使之为我所用时会采取更谨慎的方法。
有用户认为算法的推荐内容多是主流的、规范化的,而这种“主流”与“规范”实际上压制了用户基于种族、性取向和阶级地位等的社会身份。
这类用户会通过改变个人参与来规训算法以重塑算法身份,使之与用户的自我概念保持一致,如有意地给予来自具有同样社会身份的创作者的内容以热度,如点赞、评论和转发等,希望这些被算法压制的内容可以反过来被算法放大。
除重塑算法身份以外,还有用户会广泛收集和分析数据,使算法能在特定的环境中提供更好的服务。例如,由于算法具有根据用户识别的系统内置的个性化定价机制,有用户便采用无痕浏览模式与戏弄定位的方式来选购机票,以防止在系统识别的基础上为自己的旅行支付更多费用。
此外,有部分用户基于对算法的负面评价,与算法进行了积极的斗争,这涉及到利用颠覆战术来规避、操纵甚至破坏算法系统。如有用户会采用取消关注账号和话题标签、故意不点击某类帖子等方法来规避某些内容的推送。
有用户认为,算法对用户信息的收集与识别会被极少数人用来创造利润,蕴藏着极大的隐私风险,同时还会通过内容推送来传递不符合道德的价值观,因此部分用户采取了较为激进的战术来规训算法系统,如安装广告拦截器、使用虚拟专用网络(VPN)等。但在实践中,用户很少采用这类激进的策略。
03 用户规训算法的意义
用户对算法的规训是用户基于自己的感知、理解和体验等对算法进行的调适、规避和抵抗,但它并不否认算法的力量,而是在算法的框架内进行运作,以利用算法达到不同的目的,从而加强了人与算法技术的交互。
这表明人与媒介技术二者相互建构,而这种互构是一种持续不断的复杂过程,这也在一定程度上回应了以往技术决定论者对算法技术的强大效果观点。
实际上,用户对算法的规训不仅倒逼算法技术迭代,也推动了平台组织的制度重塑。这表现在,一方面,重塑了组织平台的技术规范,如已有平台开始对用户反馈系统的流程进行闭环管理,并更新升级用户体验界面的技术配置,这在一定程度上为在算法系统中增加用户话语权提供了通路;另一方面,也重塑了平台的组织文化——如今已有越来越多的平台组织从以往的“以用户为中心”转变到“痴迷客户”,客户包括了内容生产者和消费者、B端客户和C端客户等,在重视用户对算法系统的建构能力的基础上加强对客户的理解与服务意识。
同时,用户利用一系列底层运作规训算法,促使算法身份与个人的自我概念保持一致,也在一定程度上削弱了算法规则对社会特定群体的偏见。
研究表明,算法对用户是否属于某个社交类别的评估不是固定的,而是动态的,平台算法与其用户共同生成了关于种族、身材外貌、能力状况、阶级地位、LGBTQ身份等社会身份及从属关系的定义,它们将平台的用户分类为上述不同的社会身份,并阐明具有某种社会身份的含义。
因此,用户对算法的规训促使其算法身份不再单方面由算法和算法设计者决定,用户可以通过规训使特定社会身份的相关内容在平台算法中的排序上升,进而在一定程度上削弱了社交媒体中对某些社会群体的偏见。
当然,尽管用户对算法的规训可以带来一系列积极效应,但我们仍需看到,算法技术在为我们带来智能化和便利性的生活的同时,我们的个人需求也被代码运作事无巨细的过问并被一一满足,这使得用户在身体内部产生了顺从的愿望,成为“被控制者”——
我们享受获得信息的便利性,但却以自己的隐私信息和行为数据为代价;我们享受内容的精准推送,但却对损耗的时间、碎片化的注意力和茧房效应无动于衷。因此,无论何时,我们都应对媒介技术保持理性的态度,正视技术给人类社会带来的双重效应。
参考文献:
Pasquale, F.(2015).The Black Box Society, Cambridge Massachusetts: Harvard University Press.
Bucher, T. (2017). The algorithmic imaginary: Exploring the ordinary affects of Facebook algorithms.Information, Communication & Society,20(1), 30-44.
Gran, A. B., Booth, P., & Bucher, T.(2021). To be or not to be algorithm aware: a question of a new digital divide?.Information, Communication & Society,24(12), 1779-1796.
Cotter, K. (2019). Playing the visibility game: How digital influencers and algorithms negotiate influence on Instagram. .New Media & Society,21(4), 895-913.
Dogruel, L., Facciorusso, D.& Stark, B.(2022).‘I’m still the master of the machine.’ Internet users’ awareness of algorithmic decision-making and their perception of its effect on their autonomy,Information, Communication & Society,25(9),1311-1332.
Velkova, J., & Kaun, A. (2021). Algorithmic resistance:Media practices and the politics of repair.Information, Communication & Society,24(4), 523-540.
Lomborg, S., & Kapsch, P. H. (2020). Decoding algorithms.Media, Culture & Society,42(5), 745-761.
Swart, J. (2021). Experiencing algorithms: How young people understand, feel about, and engage with algorithmic news selection on social media.Social Media + Society,7(2), 1-11.
Bucher, T. (2018).If…then: Algorithmic power and politics. Oxford University Press.
Beer,D.(2009).“Power Through the Algorithm? Participatory Web Cultures and the Technological Unconscious”,New Media &Society,11(6),985-1002.
Karizat, N., Delmonaco, D., Eslami, M., & Andalibi, N. (2021). Algorithmic folk theories and identity: How TikTok users co-produce Knowledge of identity and engage in algorithmic resistance.Proceedings of the ACM on Human-Computer Interaction,5(CSCW2), 1-44.
Milan S.(2018). Political agency, digital traces, and bottom-up data practices.International Journal of Communication,12,507–527.
Brunton F and Nissenbaum H.(2016).Obfuscation: A User’s Guide for Privacy and Protest.Cambridge, MA: MIT Press.
Silverstone, R.(2005).“Domesticating Domestication. Reflections on the Life of a Concept.”Domestication of Media and Technology. Eds. Berker, T. et al. New York, NY: Open University Press.
Geiger, R. S. (2017). Beyond opening up the black box: investigating the role of algorithmic systems in Wikipedian organizational culture.Big Data & Society,4(2), 1-14.
Haim, M., Graefe, A., & Brosius, H. (2018). Burst of the filter bubble? Effects of personalization on the diversity of Google News.Digital Journalism,6(3), 330–343.
克里斯托弗•斯坦纳.(2012).算法帝国.北京: 人民邮电出版社.
张超.(2018).新闻生产中的算法风险:成因、类型与对策.中国出版(13),38-42.
陈阳 &吕行.(2022).控制的辩证法:农村青少年的短视频平台推荐算法抵抗——基于“理性—非理性”双重中介路径的考察. 新闻记者(07),71-87.
张萌.(2022).从规训到控制:算法社会的技术幽灵与底层战术. 国际新闻界(01),156-173.
赵璐.(2022).制约还是驯化:算法想象、可见性管理策略与制度再生产. 当代传播(04),53-58.
唐铮,段景文 & 严云依.(2022).双重驯化与人技混合:驯化视角下的算法再定义. 学术研究(04),56-60.
作者:张媛媛;微信公众号:羊村传播(ID:yangcunmedia)
来源:https://mp.weixin.qq.com/s/mMwz9V_vDRnf0fiAMZSkOQ
本文作者 @羊村传播
版权声明
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!