关于#信息茧房#,我2021年的时候就说过,现在不光是每个人看到的评论区不一样了,就连我们刷一些小视频里面的广告,也是根据每个人的大数据推送不同的东西,电视剧里边的一些场面经常先是绿幕,等到后期的时候,再根据每一个人的情况不同贴上不同的产品广告,下面就来跟着我了解一下什么叫做信息茧房:
AI算法是如何改变我们的呢?方便我们的同时,我们又该怎么冲破弊端?
假如你是一个高中生,你的妈妈问你今天在学校表现怎么样?你说你表现特别好,而且今天还帮忙擦了地,你的妈妈特别满意。但是你并没有告诉妈妈,你拖地是因为闯祸被老师罚的,这个时候你妈妈就是用户,你就是AI算法,你只讲她爱听的,报喜不报忧。
现在的很多社交媒体就是这么运作的,在这种情况下,我们都进入到了这种“信息气泡”,我们看到的内容都是基于自己喜好的,刷软件的时间越长,算法就越了解我们,这个过滤气泡也变得越来越受限。
第二个概念叫做“信息茧房”,当这些气泡结合在一起,就会形成信息茧房,这种接收网络信息时的前意识筛选,就会使一个群体的成员下意识地加强与本群体的联系,我们就容易忽略我们不感兴趣的事物,或者是不熟悉的想法。
这种信息茧房会导致两个严重后果:
第一个是形成由价值观导向的信息获取网络社区,由于算法不断的根据你的喜好推荐,从而使你沉浸在自我的满足之中。
第二个后果就是导致群内同质,群间异质的现象,让每一个人都生活在各自的信息茧房之中。
第三个概念叫做回音壁效应,在这些信息茧房中,我们每个人都活在封闭的回音室之中,意味着我们只能看到跟我们相同的观点,甚至会以一种更为激进、夸张或者扭曲的方式进行,这就是圈里的人不断在加强对自己这一个群体价值理念的认可,对其他群体之间价值观选择封闭,甚至对立。
第四个概念叫做群体极化,指的是个体的信息获取,往往会导致群体的价值判断,从而导致越来越“群体极化”。
为什么会这样呢?首先是由于前面说的回音壁效应,当你发现算法向你推送的东西都是在支持你的观点时,你就会越来越相信自己的正确性。第二个原因是在冲突论的概念中,当一种观点在讨论前就已经优先形成自己的群体时,通常在面对不同的观点时,我们会下意识地拒绝他人的看法,然后我们会用一些极端的表达来保护自己团队的主导权。
因此算法有时候也会带来一些不太好的东西,造成上面这些不太好的后果的源头,就是这些一开始的推荐气泡,就是根据算法给你推荐的各种报喜不报忧的、你喜欢看的这些东西。
而我们日常所用的这些平台,却大部分都是强烈的,根据算法来给你推送喜好内容,他们的初衷是获取你的喜爱,让你更加依赖这个平台,但是从另一个程度也恰恰限制了你的一些全面获取信息的权利。
那么在现有条件下,我们能否跳出这个圈子呢?我们是不是就只能接受这个现实,成为算法的奴隶呢?
其实我们可以尝试一下:既然所有的算法都是为了模拟出一个人的观看喜好,所以我们要做的就是,给机器一个经过我们精心设计的虚假偏好,比如我们可以在某平台建立一个账号,叫做“长安大坝想放水”,然后我只关注与水利、水库相关的内容,给这些相关内容点赞评论,然后对所有的非水利相关内容点击不感兴趣,这样差不多过上个两三天,这个平台就会把自动推荐的内容全部换成了和水利相关的,然后你再搜索你正常喜欢的方面的内容,就会变成正常的、更加全面的一个推送。
再比如,我们也想让自己的认知更全面,不想只看自己感兴趣的内容,我会写下我想要算法给我展现的所有内容,然后每一个方面的内容都重复上面的操作过程一次,这样的话,我就构建了一个又一个属于自己的不同领域的信息茧房,我的手机也成了我的工具,以实现对于我个人而言,能够更全面地了解这个世界的需求。
但是说了这么多,都只是针对现有条件下算法处于初步发展阶段的一些面临的问题,我们只能在这个算法,还不完善的时候尽可能的保护自我,最终的最好的办法肯定是国家出台相关政策,让各个平台都能够合理的运用算法和大数据,毕竟把这个东西交到国家手里,总比交给个人强。
AI算法是如何改变我们的呢?方便我们的同时,我们又该怎么冲破弊端?
假如你是一个高中生,你的妈妈问你今天在学校表现怎么样?你说你表现特别好,而且今天还帮忙擦了地,你的妈妈特别满意。但是你并没有告诉妈妈,你拖地是因为闯祸被老师罚的,这个时候你妈妈就是用户,你就是AI算法,你只讲她爱听的,报喜不报忧。
现在的很多社交媒体就是这么运作的,在这种情况下,我们都进入到了这种“信息气泡”,我们看到的内容都是基于自己喜好的,刷软件的时间越长,算法就越了解我们,这个过滤气泡也变得越来越受限。
第二个概念叫做“信息茧房”,当这些气泡结合在一起,就会形成信息茧房,这种接收网络信息时的前意识筛选,就会使一个群体的成员下意识地加强与本群体的联系,我们就容易忽略我们不感兴趣的事物,或者是不熟悉的想法。
这种信息茧房会导致两个严重后果:
第一个是形成由价值观导向的信息获取网络社区,由于算法不断的根据你的喜好推荐,从而使你沉浸在自我的满足之中。
第二个后果就是导致群内同质,群间异质的现象,让每一个人都生活在各自的信息茧房之中。
第三个概念叫做回音壁效应,在这些信息茧房中,我们每个人都活在封闭的回音室之中,意味着我们只能看到跟我们相同的观点,甚至会以一种更为激进、夸张或者扭曲的方式进行,这就是圈里的人不断在加强对自己这一个群体价值理念的认可,对其他群体之间价值观选择封闭,甚至对立。
第四个概念叫做群体极化,指的是个体的信息获取,往往会导致群体的价值判断,从而导致越来越“群体极化”。
为什么会这样呢?首先是由于前面说的回音壁效应,当你发现算法向你推送的东西都是在支持你的观点时,你就会越来越相信自己的正确性。第二个原因是在冲突论的概念中,当一种观点在讨论前就已经优先形成自己的群体时,通常在面对不同的观点时,我们会下意识地拒绝他人的看法,然后我们会用一些极端的表达来保护自己团队的主导权。
因此算法有时候也会带来一些不太好的东西,造成上面这些不太好的后果的源头,就是这些一开始的推荐气泡,就是根据算法给你推荐的各种报喜不报忧的、你喜欢看的这些东西。
而我们日常所用的这些平台,却大部分都是强烈的,根据算法来给你推送喜好内容,他们的初衷是获取你的喜爱,让你更加依赖这个平台,但是从另一个程度也恰恰限制了你的一些全面获取信息的权利。
那么在现有条件下,我们能否跳出这个圈子呢?我们是不是就只能接受这个现实,成为算法的奴隶呢?
其实我们可以尝试一下:既然所有的算法都是为了模拟出一个人的观看喜好,所以我们要做的就是,给机器一个经过我们精心设计的虚假偏好,比如我们可以在某平台建立一个账号,叫做“长安大坝想放水”,然后我只关注与水利、水库相关的内容,给这些相关内容点赞评论,然后对所有的非水利相关内容点击不感兴趣,这样差不多过上个两三天,这个平台就会把自动推荐的内容全部换成了和水利相关的,然后你再搜索你正常喜欢的方面的内容,就会变成正常的、更加全面的一个推送。
再比如,我们也想让自己的认知更全面,不想只看自己感兴趣的内容,我会写下我想要算法给我展现的所有内容,然后每一个方面的内容都重复上面的操作过程一次,这样的话,我就构建了一个又一个属于自己的不同领域的信息茧房,我的手机也成了我的工具,以实现对于我个人而言,能够更全面地了解这个世界的需求。
但是说了这么多,都只是针对现有条件下算法处于初步发展阶段的一些面临的问题,我们只能在这个算法,还不完善的时候尽可能的保护自我,最终的最好的办法肯定是国家出台相关政策,让各个平台都能够合理的运用算法和大数据,毕竟把这个东西交到国家手里,总比交给个人强。
【可签到+黑盒】重庆小面2桶!超巴适!新鲜日期!高温熟化工艺制作而成的第三代非油炸小面,Q弹有韧性,面饼闻起来有淡淡的麦香。闻起来椒香味十足,吃起来麻辣鲜香、辣而柔和[欢乐熊出没]
我对你的感觉大概就是:就算我们很久不说话不聊天,或者哪天就直接没了任何联系,我还是会觉得你是我非常非常重要的人。——网易云音乐热评《你就不要想起我》
#省钱情报员# #天天来捡漏# https://t.cn/A6OcJEWE
我对你的感觉大概就是:就算我们很久不说话不聊天,或者哪天就直接没了任何联系,我还是会觉得你是我非常非常重要的人。——网易云音乐热评《你就不要想起我》
#省钱情报员# #天天来捡漏# https://t.cn/A6OcJEWE
#刘亦菲[超话]#真的好心疼刘亦菲,有的黑子真就出生,给女性造黄谣,把一张清白的图非要故意摸黑。
这张图实际上是刘亦菲表达礼貌跟导演拥抱,手中拿着咖啡不小心撒到导演外套,事后刘亦菲上台对导演表达歉意,后来送了导演一件外套。
就这一件小事被一些出生说成这个导演是看上刘亦菲的大佬,刘亦菲跟他亲密互动,真把我恶心到了。是不是那些出生自己母亲这样所以就把脏水泼刘亦菲身上。
虽然我也有讨厌的女明星,但我从来不会给她们造黄谣,因为这是作为一个人最基本的素质。(这个出生名字没必要打码了,在b站里)
这张图实际上是刘亦菲表达礼貌跟导演拥抱,手中拿着咖啡不小心撒到导演外套,事后刘亦菲上台对导演表达歉意,后来送了导演一件外套。
就这一件小事被一些出生说成这个导演是看上刘亦菲的大佬,刘亦菲跟他亲密互动,真把我恶心到了。是不是那些出生自己母亲这样所以就把脏水泼刘亦菲身上。
虽然我也有讨厌的女明星,但我从来不会给她们造黄谣,因为这是作为一个人最基本的素质。(这个出生名字没必要打码了,在b站里)
✋热门推荐