ChatGPT很性感,但更危险

后台很多人让我评价一下ChatGPT这个工具,说是很有可能颠覆谷歌等搜索引擎,以及开辟AI创作的新纪元。

我一听特别兴奋,破稿子我早就不想写了,快,我要拥抱未来。

终于,我可以奴役AI从甲方手里骗钱了!

我单片眼镜都戴起来了,好耶。

结果玩了两天,觉得很失望,作为工具来说,可靠性不高,我甚至觉得这东西,挺危险的。

如果大规模使用,替代当下的搜索引擎,那么对整个人类的威胁蛮大的。

放心,我不会鼓吹什么AI威胁论,也不会去讲什么AI替代大量基础岗位之类的老调陈词,这些东西都被人说烂了。

我自己做风控的时候,模型训练玩儿的多了,现在我自己的内容生产也没少用各种工具,要是爬虫和筛选脚本玩儿的不熟,我一个视频动辄几百个表情包,早就累死了。

我能这么卷,AI出了不少皮鞭。

我本身并不会对AI作为工具有什么歧视,生产力摆在这里。

我觉得这个产品真正的威胁,不是AI技术,而是【人类的信任】。

再说一遍。

不是AI,而是【人类的信任】。

当你开始相信这个产品之后,危险会出现。

因为根本不可信,你得到的答案,有可能直接是错的。

一个工具,最重要的是什么?

是效率吗?

效率很重要,但第一优先级是【可信】【可靠】,挥出锤头就是可以砸进去钉子而不是变成魔法少女变身器。

当然,没有说魔法少女变身器不好的意思。

这时候,ChatGPT,作为一个助手也好,搜索引擎也好,对话模拟器也好,最重要的是什么?

是【提供可信可靠】的反馈。

这就是ChatGPT当下的问题,他提供的答案,不可靠。

不可靠就算了,并且还在试图把这种不可信通过煞有介事地包装变得可信。

就像是牛老师一本正经地告诉你,自己是个男的,理论上不可能喜欢男的。

他,说,谎。

但你如果不知道,你很容易相信他,从而着了道。

很多富老头就吃了有道德的亏。

随手给两个案例。

大家自己看一下ChatGPT的回答,以及看看问题是什么。

ChatGPT很性感,但更危险

乍一看,这两个回答都是有理有据的,甚至他还给你补全了诗句。

好温柔好可靠我哭死。

但你再一看,这不就是渣男渣女吗?

温柔地讲好听的话,但其实全是刀子。

尤其是,这人讲话那么井井有条,条理清晰,还会举例。

是不是很可信?

如果你不知道这两首诗,你会觉得这就是答案。

但现实是,这两个答案,都是错的。

就像是外面锁子甲,里面丁字裤。

先说说错在哪。

第一首诗,诗名搞错了,应该是【九月九日忆山东兄弟】。

ChatGPT很性感,但更危险

而且作者是王维,不是李煜。

就算作者真的是李煜,李煜算五代十国的南唐人,五代十国是唐宋之间的过渡期。

这都不是AI技术了,这叫时光机技术了。

第二首诗,作者是对的,朝代也是对的,但诗名还是错的。

这首诗是李白的《静夜思》,而非《月下独酌》。

ChatGPT很性感,但更危险

甚至读他对于诗的理解,也都有点问题,因为静夜思的重点显然重点不是风景和酒,是触景生情,是思乡。

就好像你说自己杀人不眨眼,我问你眼睛干不干一样。

你都说不出到底哪个更离谱。

好了,现在问题就来了。

如果这个产品的答案,仅仅是错的,或者无法回答,都不叫问题。

但这个产品的核心问题在于,很多东西他讲的不但是错的,他还本能的把这个错的东西给【包装】了,而且理直气壮。

大家可以再读一遍这个回答,这是理直气壮引经据典的说错话。

某种程度上,确实是可以替代专家发言。

直接就掌握了废话精髓。

我们都知道,瞎听专家建议,人生会出问题。

这个东西,也是一样的问题。

问题不是他说的是错的,而是出在这个【包装】。

假如你不知道这个【知识】的答案(例如这两首诗的作者和名字),你只看回答,你会觉得好对啊,逻辑好通畅啊,但这东西是错的。

这就是,误导。

真把这东西用在生产力上,必然会极地让你轻松。

因为你很快就会因为工作出现滑稽错误被开除,直接不用工作了,当然轻松。

这时候或许你会疑惑,那不就是一个不好使的搜索引擎吗?至于用【危险】吗?

搜索引擎也有假信息啊,社会也有假新闻啊,短视频也有信息茧房啊,这年头假信息还少吗?

至于这么上纲上线吗?

至于,太至于了。

因为信息茧房撑死了影响你的思考,这东西已经剥夺了你的思考。

你想,过去的搜索引擎是什么?

是给你一堆信息,你去筛选。

他们只提供信息,不提供答案,也不包装答案,顶多提供点莆田医院和性感荷官。

搜索引擎给你展示的结果有筛选,也有排序,但这些东西,你和他都知道是素材,是信息源,是需要人类手动做二次交叉验证的。

最终的决策,是在人手里,而且给了足够的信息。

但这个工具,直接是AI替你做出了选择,你只剩yes和no。

NO。

你说这样不好吗?不是简化了选择吗?

不不不。

举个例子,村里的年猪,过去是,给他一堆结果,生活,交配,屠宰,吃饲料,让他来选择。

每条选择背后,指向的是不同的结果。

现在是,只给它一个AI处理后的结果,红烧,清蒸,油炸,香煎。

AI已经提它排除掉了别的选择,但这个结果本身有问题。

它怎么选,最后都是飞升。

看到这里,你肯定又觉得不对,因为目前这个产品只是用的离线库,等用了在线库之后,能实时更新之后,肯定回答是更加精准的。

另外,技术也是不断进步的,后面肯定还有更精确的模型。

没错,我相信,也认可。

一切都是技术问题,技术是可以不断训练迭代的。

但在迭代的过程中,必然有代价产生,在这个过程中,用这东西产生的危险和误导,怎么办?

谁享受红利,谁是那个代价呢?

各大奇迹建筑背后,你现在是后来者可以大声赞叹,你当年会不会成为修建的人呢?

所以,我目前对这东西是非常警惕的。

不是因为正确或者错误,也不是因为效率。

而是他不给我信息,他提供的是【理直气壮】的答案。

如果这里面的要素有问题,而你作为提问者,对这些问题本身不够了解,那就是对你纯粹的误导。

就像是前面那两个关于诗歌的问题,假如你信了他,从此你的知识结构就缺了一角了。

但你如果对这个问题足够了解了,你还用得着它吗?

真假难辨,但理直气壮,不能用吗?

也不是不能用,但代表使用门槛相当相当高,要求使用者必须特别牛X,需要提前知道答案又或者特别擅长鉴别筛选信息,且观察敏锐。

那有这个本事的人,直接用成熟的搜索引擎效率更高。

工具最重要的,是可靠,是从A到B这个过程,不能有问题。

这工具的问题就是,你期望从A到B,但他给你一个从A到SB的结果,还煞有介事的告诉你答案就是SB。

某种程度上,还真是对的。

这个时代,信息已经够碎片够垃圾了,但这东西直接来了个油门踩到底。

短视频,搜索引擎,给你的都是信息源,撑死了算是信息茧房。

这东西,是理直气壮的给你总结归纳一堆不知真假的信息,并且说的井井有条。

这叫,信息危房。

就像数学题,不会就是不会,而不是理直气壮的给你一个错误解,还写出一大堆乱七八糟的公式和解释。

这是考试骗卷面同情分呢?

而且最讨厌的是,假如有个需求,你知道答案,也能分辨真假,他还会给你撂摊子。

就像牛老师的这种提问一样。

ChatGPT很性感,但更危险

作者:半佛仙人;公众号:仙人JUNP(ID:xrtiaotiao);

原文链接:https://mp.weixin.qq.com/s/yRqDUd5hEOXozhJDO5wb7Q

本文作者 @半佛仙人 。

版权声明

本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部