Grammarly新CEO斯坦福分享:关于AI,喜欢上问题而不是解决方案,方案随着时间推移而改变!
2 年前,Rahul Roy-Chowdhury 离开工作了 14 年的谷歌 VP 岗位加入 Grammarly 担任全球产品主管,他曾领导谷歌隐私、安全和安全团队,为谷歌的产品组合提供统一的解决方案,此外还领导过 Chrome 浏览器和 Chrome OS 的产品管理团队。
今年上半年,Rahul 升任了 Grammarly 的 CEO,加速 Grammarly 对生成式 AI 技术的应用,不仅帮助用户写作,还能帮助用户提出好的想法,提高 Grammarly 的 LTV。
市场上曾担心像 Grammarly 的产品会因为 ChatGPT 的出现而失去竞争力,但 Rahul 不以为然,Grammarly 拥抱了 GPT,他认为 AI 虽然存在风险,但这是一项强大的技术,Grammarly 也有责任通过安全负责的方式让用户处于体验到中心,而不增加额外的偏见和风险,他呼吁开发者们要确保生成式 AI 在帮助用户的同时,不会剥夺用户的控制权和个性。
在 Rahul 升任不久,在斯坦福大学展开过一次分享, Rahul 围绕 AI 展开讨论,涵盖所有内容包括这一波新的 AI 浪潮,此外 Rahul 还分享了Grammaly 在应对内容审核和偏见问题时的方法和策略,也为年轻的创业者和技术从业者提供了宝贵的经验和见解。
以下为这次分享的全部内容,enjoy~
一、在 Grammarly 使用和构建 AI 帮助用户
今天与大家分享的是关于我们在 Grammarly 使用和构建 AI 来帮助用户的内容,你们中的许多人都是用户,我们已经开发出了工具、技术和对于如何大规模构建 AI 系统的理解,我希望分享这些经验,以便你们可以从中受益,其中一些可以广泛应用,不仅局限于 Grammarly 。
实际上,我希望这成为一次对话,我希望我的演讲不是结束,而是对话的开始,一场关于如何通过 AI 来帮助我们,而不是伤害我们的对话,如何通过 AI 来增强我们的能力和潜力,而不是削弱它,如何通过 AI 来增强我们的技能,帮助我们以新的、更好的方式进行沟通,而不是剥夺我们的发声权,这是我今天愿意与你们分享的对话。
让我们先做一次场景评估,我们现在处于什么状态?现实是 AI 是正在塑造我们世界最强大的技术力量,至少在我看来,毫无疑问,它已经不仅仅是未来,已经在几乎所有大规模运营的行业中产生了巨大影响。
- 想想制造业, AI 被用于创造更好的组件, AI 被用于优化全球供应链;
- 想想医疗保健, AI 被用于帮助放射科医生更早、更快、更准确地检测癌症;
- 想想医学, AI 被用于在药物发现过程中帮助分析数十亿种化合物,以确定最有前途的研究领域;
- 想想软件, AI 正在推动新的个性化工具,帮助我们在职业和个人生活中更加高效;
我们才刚刚开始,在我们的一生中 AI 将帮助我们解决最重要的问题,例如全球变暖。随着生成式 AI 的崛起,我相信大家都在关注, AI 还将帮助我们在创意表达方面,将高层次的想法转化为具体的作品,成为艺术品、文学作品等。这是令人兴奋的。
我本质上是一个技术乐观主义者,我在技术领域工作了很长时间,我相信技术将帮助我们改善生活,改善世界。在我职业生涯中,我一次又一次地看到了这一点,我记得我们早期谈论 Chrome 时的情况,我记得当我在 Chrome 项目上工作时,看到了网络访问和低价智能手机将信息传递给全球数十亿人的影响,我看到了这种影响,那是技术在规模上帮助人们的例子。
因此, AI 是美妙的,但是也伴随着巨大的力量和责任, AI 也可能引起实际问题造成伤害。不管是出于设计还是仅仅作为意外的副产品,不是有意为之,而是由于技术的强大而无意间发生的后果。你可以考虑基于 AI 的推荐引擎,它们已经造成了实际的伤害,并引发了社会问题,比如激进化、成瘾,或者是因为沉浸于这种技术中而忽视了现实世界的人际关系。
我的意思是,我们的大脑无法抵挡这些系统精心设计的多巴胺冲击,作为一名父亲,我担心这一点,我希望我的孩子能够接触到 AI 所提供的一切好处,但我也希望保护他们免受这些伤害,如果你考虑到 AI 在我们生活中作出重大决策的情况,比如筛选工作申请或决定谁获得贷款批准,那么这些系统中存在着潜在的数据偏见,这些偏见会造成实际的伤害。事实上,人们正在取得进步,系统正在变得更好,事情正在改善。所以并不是一片黯淡和末日的故事,但是伤害是真实存在的。
我不知道你们是否看过 John Oliver 的《Last Week Tonight with John Oliver》脱口秀,这个节目真的很搞笑。几个月前,他的节目是关于 AI 的,非常值得一看,尤其是在考虑到你们正在上的课程和主题的情况下。但其中他强调的一点是, AI 被用于筛选工作申请,他们提到了许多问题和偏见,以及该系统所面临的许多挑战。
但是从节目中最让我印象深刻的一点是,这些公司的领导之一,提供这些服务的公司,他对求职者的建议是不要与众不同。你的任务不是独特、特殊或与众不同,你的任务是通过 AI 进入真正的人类世界。
这太可怕了,太没有赋权感了,太反乌托邦了,这不是我想要的未来,我不想要这样的未来,我相信你们也不会想要这样的未来,因此伤害是真实存在的,所以问题是我们应该怎么办?我们不应该停止。我认为我们应该选择一个有意识的道路向前。
我想向大家传达的一件事——我们可以决定如何发展和部署这项技术。不要让技术来对待我们,而是让我们决定这项技术如何部署,以及它如何影响我们的日常生活。我们有权力,不要放弃这个权力,这对于你们来说,现在进入就业市场,开始职业生涯是一个非常重要的事情,只要记住我们有权力和控制权,决定这项技术如何塑造,以及它在我们生活中的形态。
这就是今天对话的核心,所以在 Grammarly ,我们正在努力构建框架、技术和工具,试图将 AI 应用于大规模人群。
二、“ TRUE ”框架
我们有一个基本的信念 —— AI 是关于增强人类潜力的,我们称之为增强智能:AI 在增强我们的同时是成功的,当它使我们变得更好、增强了我们的能力时,这应该是这些系统的目标。
实际上,我真的希望我们可以重新定义 AI 的缩写,让其代表增强智能,而不是 AI ,因为我认为这实际上才是我们从这些系统中期望的结果。你希望它们能够帮助我们 。AI 会引发这些关于它是否有意识、是否有感知能力的讨论,而这实际上超出了这些系统的实用性,它们的目标是帮助我们。
我们希望构建系统,将系统部署给用户,使其始终保持这种增强智能,我们使用了一个称为“ TRUE ”框架:T代表信任,即承诺实施世界一流的隐私和安全性,R代表责任,即关注公平和用户安全,U代表用户控制,真正让用户掌控,并确保用户在整个体验过程中有能力,E代表同理心,确保我们真正理解我们的用户需要,解决真正的用户问题,所以这就是 TRUE 框架。
我们给你们提供一个案例研究,介绍 TRUE 框架如何得到应用,基于在大规模构建系统方面的实际建议。因此,让我退后一步,向你们解释一下 Grammarly 的业务,因为这将帮助你们理解案例研究,所以 Grammarly 的业务是帮助人们更好地沟通。
1. T——信任
我们都有不同的风格,有不同的背景,我们使用许多不同的工具进行沟通,而且有人被完全理解并以他们的预期方式传达,使用了正确的语调、正确的信息,这样的机会并不高。事实上,我们正在使用的沟通工具数量不断增加,因为工具的景观变得分散,且我们的工作方式在过去几年中发生了巨大的变化,有更多的远程工作、分布式团队、全球团队试图在不同的背景下协同工作,所以沟通始终是一个难题。
现在比以前更难了,沟通不太好的代价非常高。事实上,我们进行了一项研究,发现仅在美国,单单一个年度内,低效的沟通成本就达到了 1.2 万亿美元,这个数字只是一年前的数据,这个数字不会下降,而是上升,因为沟通的数量在增加,而沟通的效果在下降,这是一个很难解决的问题。
当我们真正解决了它时,情况会变得很棒,我们能够准确地表达自己的意思,彼此理解,感觉在公司里可以更好地协作和完成任务,公司也会报告这一点,他们看到了更好的结果 —— 团队处于流动状态,工作更快,取得更好的成果,所以这是一个沟通问题,这是一个我们正在 Grammarly 中解决的问题。
2. R——责任、U——用户控制
现在,每个人都知道生成式 AI 很重要,每个人都在研究生成式 AI ,我们在 Grammarly 一直在研究,大约 4 月份我们推出了生成式 AI 版本,一个名为“ GrammarlyGo ”的产品,为了将 GrammarlyGo 带给我们的用户,我们在全球有数百万用户。
我们使用了 TRUE 框架,那么让我详细地为你们解释一下,在我们考虑我们刚刚推出的产品时,我们如何思考这个框架,如何将其应用于我们的用户呢?让我们从信任开始,信任是确保你理解用户对其数据的期望,这些问题是你正在收集什么数据?你对数据做了什么?你将其保留多长时间?实际上,在所有这些问题的根本上有一个基本的问题,那就是你的动机和我的动机是一致的还是不一致的?
在 Grammarly ,我们构建了一个围绕确保我们的动机和用户的动机始终 100% 一致的业务和公司,这是一个非常简单的决策过程,一个新的商业模式出现在我们面前,我们思考一下,有收入的潜力,这很有趣,但是它是否会导致我们在处理用户数据的方式方面与用户的兴趣不一致?答案是肯定的,我们不会做。
用户的一致性是至关重要的,这实际上是隐私的根本,是获取理解一致性的关键,如果隐私是关于一致性以及你将如何处理用户数据,那么安全性就是确保该数据免受损害、免受滥用;在 Grammarly ,多年来我们在安全方面投入了很多,我们拥有整个字母表的认证,包括 sock、HIPPA、CCPA,应有尽有,而且这些事情不会很快发生,他们需要很长时间,需要很多投资来完成,而且在事后难以添加。
现在,随着像 LLMs 这样的新技术的出现,出现了新的威胁,对于 LLMs 这样的威胁模型的全面了解尚未达到,所以应对这种不确定性的最佳方式是真正拥有多层次的安全性策略。
不仅仅依靠一件事情的良好运作,而是依靠多种事物一起工作,采取组合方法,比如漏洞赏金计划或者像红队一样,红队的概念是你有一个团队,我们在 Grammarly 就有这样一个团队,他们的工作是主动找出你系统中的漏洞,这样我们就能够在外部黑客之前找到并修复它们,所以真正投资于这种安全方法的组合是处理新技术的正确方式。
我想要给你们带来的关于信任这个理念的一个主要观点是,要赢得它非常困难,失去它非常容易,事后很难添加,所以当你们开始自己的职业,思考所有你们将要构建的酷应用、企业和技术时,要牢记信任,因为信任需要成为你们做其他一切的基础,我们需要赢得和加强信任,使其成为基础,在没有这种基础的情况下,要想使一家成功的公司扩展是非常困难的基础。
放在那里,这就是信任,所以,在 GrammarlyGo 中,我们应用了这个框架,这些技术,所有的投资,它们帮助我们推出GrammarlyGo ,保持了我们与用户之间的信任关系。责任是确保我们专注于公平,专注于用户安全。这里需要做很多技术性工作,例如评估并确保你的ML模型具有非常高质量的训练数据,确保数据没有偏见,确保你可以跟踪和查找敏感文本,比如仇恨言论。
例如,在 Grammarly 中,我们投资了敏感文本分类器。因此,你可以将 LLMs 生成的文本想象成,当我对文本进行分类时,我会捕捉到它并说,嘿,这是敏感文本,然后我们可以采取适当的行动。
例如,我们可以说,如果用户看到这段文本,对他们来说体验不会很好,我们不会向他们展示这段文本。因此,我们实际上可以保护我们的用户免受这些模型可能造成的潜在伤害。所以我们在这些技术上投资,我强烈鼓励每个人在考虑大规模构建 AI 时,要深入思考如何做好这些事情。
质量评估,敏感文本分类器来检测这些问题。这些是需要正确解决的重要问题。但这不仅仅是关于技术,因为无论你做什么,无论你构建什么,无论你的分类器有多好,当你的真实用户在现实生活中使用你的产品时,总会遇到一些意想不到的问题。那么你打算怎么做呢?这是你必须提前考虑并在事后不是反应的问题。
因此,在 Grammarly 我们处理这个问题的方式是,我们为用户在产品中发送反馈提供了许多不同的途径,例如电子邮件、客户服务团队。这不仅仅是给我们反馈,我们有一个流程,当我们收到反馈时,我们可以采取行动。
有人正在查看并说这是一个问题。我们必须解决这个问题,谁来解决?谁值班?让我们解决它,让我们发布修复,让我们保护用户安全。因此,责任的一个关键部分不仅仅是正在发生的技术创新,这是重要且伟大的,而且还要确保在你的真实用户在他们的实际生活中使用你的产品时,你有一些计划来应对不可避免的意外事情,那么你的答案是什么?有答案是很重要的,它可能不会完全与 Grammrly 相同。
我们需要一些答案。所以这就是责任、用户和控制:用户应该感觉他们对整个体验有控制权,所以他们不会觉得技术是施加给他们的,他们觉得他们控制着体验,他们正在推动过程,他们正在推动结果。
因此,对于 GrammarlyGo ,我们代表用户生成文本。首先,我们希望确保用户感觉 GrammarlyGo 生成的文本听起来像他们,代表他们的声音,因此,我们构建了一个名为“My Voice”的功能,用户可以控制他们的声音,这不仅仅是模板化的通用文本,它反映了你想要的声音,然后,整个体验允许用户看到发生了什么,我们提供提示,但最终我们总是让用户做决策,这不是偶然的。
这不仅仅是发生的事情,这是一个有意的设计选择。因此,在设计和构建这些功能和产品时,你会面临这些选择,我要把用户引导进来吗?还是不引导?
根据我的建议和我艰难的经验,将用户引入其中,确保他们感觉他们对体验有控制权,这是 TRUE 框架的一个部分。
3. E——同理心
最后一个部分是共情,这是一个理念。我们正在努力解决真正的用户问题,这听起来是一个显而易见的事情,那就是你会做的事情,但实际上,在我职业生涯中反复看到的是很容易忽视这一点,因为有太多的干扰。
你忙于为你的产品和功能工作,最初是带着最好的意图开始的,这是用户的问题,我要解决它,然后会发生一些事情,比如这边的竞争对手做了另一件事情,我必须做出回应,或者这里有一所学校,有了新技术,我必须让它上市,让我们看看会发生什么,所以很容易受到干扰。
你看了很多不同的事情,这些时间没有花在用户身上,当发生这种情况时,通常你的产品会偏离轨道。实际上不能帮助解决真正的用户需求。因此,你必须有意地迫使自己返回来,并问自己一个问题,那就是用户的需求是什么?我们正在为他们解决什么问题?我如何确信我的解决方案实际上是解决了他们真正遇到的问题?
而不仅仅是因为它很酷,以及你想出了这个点子,要把它推出去,看看会发生什么。所以在构建和部署这些系统时,将共情不断带回到对话中是非常重要的,这就是 TRUE 框架,现在我们在 Grammarly 使用它,但这与 Grammarly 没有特定的相关性。
我的希望是你们所有人都可以看到这个框架的价值,并在你们的工作中应用它,在将来的工作中应用它,在构建应用程序时考虑使用这个框架,想象一下如果真正的框架成为事实上的做事方式,会发生什么,想象一下在哪里?
所有应用程序、所有行业、每个人都在使用这个真实的框架,那么那个世界会是什么样子?让我们试着通过这个可视化的练习来走一遍,这是一个人们能够感到有能力做得更好、取得更好结果的世界,那是我们在大规模部署 AI 来帮助人们取得更好结果的世界,那是我想要的世界。
我们在开始时谈到 AI 承诺的世界,如果你不经过深思熟虑和刻意考虑,就会带来所有问题.。
所以请记住我们有权力决定如何部署和构建这项技术,你们都是科技领域的领袖,或者未来的科技领袖。
我的愿望和希望是,你们所有人都要深入思考如何使用这种权力;我的请求是请承诺使用这种权力来构建能够增强人类潜力的 AI ,让人类能够做得更好,提高我们的潜力、能力,赋予我们超能力。
三、Q&A
以下部分是Rahul 有启发的 Q&A 分享:
并非每个人都像 Grammarly 一样具有共情能力,是否认为仅仅有了这些框架就足够了?对政府监管的立场是什么?是否认为政府监管有必要?
我认为我对政府监管的看法是,这是一个重要的讨论,就像我在一开始说的那样,这是一个重要的讨论,我认为对于这种强大的技术来说,政府的监管是必要的,也是受欢迎的,但我想说的是,作为未来科技领域的领袖,应该采取一种积极的责任态度,如果在有监管并且有明确的指导的情况下,已经在做所有正确的事情,已经深入思考了如何在负责任的情况下大规模部署这些系统,而不仅仅是因为有监管才去做。
正确的做法在市场上也会胜出吗?如果市场上有一个无情的竞争对手,他们会在生成式 AI 领域战胜一个有道德的对手吗?
我相信会,因为我总是看到技术,产生困境,但技术总是找到一种摆脱困境的方式,技术总是创造出良好的结果,最终成为一种善的力量。我相信这对于 AI 也是如此,但这不是一条定律。但我想要确保大家理解的是,这不是先验的事情,这不是自然法则,这是我们的行为和行动带来了这些结果,所以关于好人是否会赢还是不会赢的问题,不是说有一种物理定律会实现那个结果,是我们的集体行动会使之成真与否,这就是为什么我实际上很高兴与大家进行这次对话,因为我只是想确保你们都理解你们有权力来塑造这个结果。
我再问一个问题,然后我们会开放提问,但是它是否具有恶性影响?因为我们在几周前邀请了Open AI 的首席科学官 Ilya 参加活动,如果你与Open AI 的人讨论他们将来的战略决策,这主要是由Sam,Ilya 通常会回答说,我们将问 AI 应该做什么,现在 AI 已经在流程中得到了如此紧密的整合,以至于我作为人类的终点在哪里?AI 的起点在哪里?界限可能会变得非常模糊,即使是你提到的反馈对你的利益和激励产生了影响,甚至可以影响你的激励和对齐的感知,如果生成式 AI 在产品开发过程中如此深入地整合进去,我们是否能够与之保持分离?
我认为我们绝对应该,这关乎用户控制,这是一个很好的例子,让我们使用 AI 来帮助我们,也许 AI 可以帮助我们创造出很棒的创意,并找出下一步要做什么?我的公司策略是什么样的?如果 AI 帮助我找出 Grammaly 的公司战略,那将是很好的,但最终我们必须掌控局面,我们不应该放弃这种系统控制。
目前很多行业似乎有些惊慌,新闻业、音乐业等等,所以我们如何平衡 AI 助手的能力,使之不成为实际的内容创作者?如何将权力交还给不同的行业?
我认为有很多不确定性和很多恐慌,我认为这是事实,每一项重大科技创新,如果你回溯到70年代,美国第一次大规模部署 ATM (自动取款机),银行出纳员开始恐慌,因为他们担心 ATM ,认为我们的工作要完了。
实际上,ATM 机的出现让人们感到恐惧,事实上,由于 ATM 的广泛使用,开设银行分行变得更便宜,因为不需要那么多人来员工,因此银行出纳员可以继续从事更有意义、更复杂、更高层次的任务;在美国, ATM 投入使用之前的银行出纳员人数少于使用 ATM 之后的人数,科技总是找到帮助我们的方法,但我们需要确保这一点成为事实。假设你是 Google 的产品经理,你构建的东西对全球数十亿人产生了真正的影响,所以请将这些原则牢记心中,考虑一下,你正在构建一个非常重要的东西,不要把它仅仅作为一个产品扔掉。
我想表达的是有意识地进行设计,把用户放在首位,确保你解决了用户的问题,对用户任务怀有同理心,确保用户控制是核心,所以我们可以通过我们集体采取的行动来塑造这个未来,每个人的单个行动都会在成百上千的工程师和产品经理致力于构建的非常酷的东西中,合并在一起,这才是未来。
关于 Grammarly 如何训练这个模型的?
我们在Grammaly Go推出时,这是一个非常快速发展的领域,我们使用了在Azure上运行的GPT 3.5 Turbo,我们所做的是应用了我们所使用的所有其他部署,比如敏感文本分类器作为后处理步骤。
你可以查看生成的输出并说这不好要更改,像我的声音这样的功能,将其视为对底层模型的提示工程,然后在未来,这些基础模型的领域正在迅速变化,将来可能会有一些其他更好的模型,也许是更好的开源模型,也许是在设备上进行本地模型学习的更好的模型;我们在质量评估方面投入了很多精力,如果出现新模型,我们已经准备好了一个专家团队,可以评估模型的质量、偏见、公平性和安全性。因此,在这些模型发展演变时,我们准备进行相应的更改。
关于LLM的问题的后续问题,特别是信任和安全等方面。
众所周知,有关LLM的输入数据以及数据的广泛性和透明性存在很多讨论,我认为你真正在问的是这实际上是系统设计的产物,而不是模型的训练方式。作为用户,很难理解哪些训练数据用于生成特定的输出。正如你所说,领域非常广泛。因此,一个例子是,在 GrammarlyGo 中,你可以创建你自己的声音,你可以说,这是我想要的声音。这是我的声音。因此,产品体验使你可以控制输入和输出。因此,我认为解决这个用户困境的方法是,如何解释给用户这么多复杂性是非常有深思熟虑的设计,用户,这回到了用户控制,这是非常重要的,用户应该感觉自己理解并有能力影响塑造体验。
AI 在改善沟通方面能做什么?它现在还做不到什么?你认为它会如何发展?
GrammarlyGo 有一个叫做“快速回复”的功能。所以我每天都会收到很多邮件。也许有人给我发了一封邮件,说,“嗨,我想见面讨论一些话题。”因此,gramalie go会理解邮件的内容,理解邮件的意图,并为我提供一些选择,以回应该邮件。有时候是接受,有时候是建议,有时候是礼貌地拒绝。
然后它会为我生成一封电子邮件,这是一封表面上的电子邮件,但它会在我的声音中进行,而且充满了完整的上下文。它会生成一封电子邮件,我实际上感到很高兴和自豪地发送,而不是像机器人一样的通用文本。我经常使用这个功能,它对我来说是一个巨大的生产力技巧,帮助我在我的日常工作中。有很多事情现在还不能做到。但老实说,这个领域变化得太快了。
推理技能的模型似乎都是这些模型变得越来越大时的 emergent properties(新兴特性),这似乎有点神秘,尽管我不是这个领域的研究人员,但从每一代模型中新出现的特性是什么,似乎仍然有点神秘,我不认为有人真正理解了这一点,所以我们也在学习的,过去的六个月是疯狂的。
大多数人在六个月前根本不知道什么是 LLM,突然之间,它在六个月内就占领了整个世界,真是太疯狂了,在接下来的六个月、十二个月、二十四个月内,这将如何发展,我不太确定。我想我们只能拭目以待。
如果我是斯坦福的学生,对生成式 AI 充满激情,并且拥有充足的时间,我想我会这样说专注于用户问题。不能只是说,我要做生成式 AI ,这是我对此的看法。其他人可能会持有不同意见。我要解决一个用户问题,我可以使用生成式 AI 来很好地解决它,在我的职业生涯中学到的一件事是,最好是喜欢上问题,但不要喜欢上解决方案,因为解决方案会随着时间的推移而改变。通常情况下,我们最终会喜欢上解决方案而不是问题。你甚至意识不到这正在发生。然后当有更好的解决方案出现时,你会说,不,但我的东西,那太棒了。
实际上,最好不要过于依赖任何一个解决方案,所以我会说,我能给你的最好建议是找到那些问题,找到值得解决的问题,从那里开始,生成式 AI 将是解决这些问题的好方法。
Grammarly 实际上是一个产品体验,但它适用于你使用的所有其他应用程序,它不是一个定制的体验,你可以认为它是一种叠加在你使用的每个其他产品上的产品,从全面的角度来看,我们将从今天开始拥有多个产品,我们有一个扩展,我们有移动产品,我们正在寻找原生应用,而且在某个时候,我们将从一套产品转变为一个平台,但现在我们非常专注于进入我们服务的入口,这项服务在人们写作的地方都可以使用。
关于那个什么我和 AI 聊天的迷因,我讨厌那个迷因,让我们确保那个迷因不成为现实,让我给你一些真实的数据点,我谈过那个1.2万亿美元的损失的事情。事实是,美国的平均知识工作者在全球来看花费了超过一半的工作周在书面沟通,过去的12个月中这个数字增长了18%,所以这在增加,然而在同一个12个月的时间内,书面沟通的效果下降了12%,所以数量在增加,质量在下降,因此,我们无法摆脱这个问题,我们不能通过说做更多,来解决这个问题,如果我能在跑步机上跑得更快一点。
事实上,你做得越多,情况就越糟,所以真正的答案必须是,必须更好地沟通,不是更多,而是更好,因为数据就是这样,我并不是凭空捏造的,这就是数据所说的,你必须弄清楚如何更好地沟通。
如果你想想,如果考虑一下生成式 AI ,我们已经在如此多地进行沟通,对吧?我们已经降低了沟通的质量,然后你想想沟通成本或内容成本的下降,现在只要使用生成式 AI ,就可以轻松地创建大量的博客文章等等,用生成式 AI 你可以做到这一点,这项技术使你能够实现这一点,但是那会有什么帮助呢?
你只会将这 18% 增加到 50%、60%,你会将这 12% 降到负 50%,那不会有任何帮助,这就是为什么你真的要回到用户问题,而当你考虑如何使用生成式 AI 创业,如何使用它时,这就是你的座右铭,这会引导你找到正确的解决方案。
在 Grammarly 内部,是如何决定或优先考虑你的路线图的呢?这是有一些技术、一些技巧可以使用,但归根结底,这是一门艺术,而不是科学,因此有些事情你可以弄清楚,比如你正在解决什么用户问题?为什么这些是最重要的用户问题?我们有什么数据来支持它?我们与用户交谈,我们进行访谈。
因此,有很多输入,以帮助我们了解问题领域,然后有一些事情,比如,隐私问题如何?我们是否保持一致?我们是否不保持一致?所以你可以在那里非常清楚地开始使用过滤器。然后你可以进行一些影响评估,比如这件事情做起来很好,但影响可能是边缘的,另一件事情做起来需要同样的时间,但实际上对我们的用户产生了巨大的影响,所以让我们专注于最大化影响,有一系列的这些东西,你可以放在那里作为指导方针和安全措施以及过滤器,但归根结底,还是需要判断和团队花费了很多时间在 Grammarly 、 Google 以及每一家公司真的在辩论、讨论和争论路线图和优先事项,你知道,也许在某个时候, AI 会告诉我们该做什么,但现在我们真的必须在这方面进行很多辩论、讨论。
关于在过滤潜在引发情感的言论; 审查以及这些 AI 限制访问某些想法之间的界限是什么?
我们每天都在自问的问题,我不知道是否有任何完美的界线刻在石头上或涂在油漆上,或者无论用什么比喻,我们有一支语言学家团队,他们正在追踪和研究权威来源,了解不同种类的偏见、仇恨言论是什么,然后我们试图从这些来源中汇编出一系列规则,关于这个问题的思考是什么?有什么研究、什么学术成果?你如何在产品中有意义地应用这些?这是在不断变化的?
所以并不是像你做完了就说,好的,打钩,我完成了,这是一个持续的评估过程,当疫情变得流行起来时,其中一个新情况就是以许多偏见的方式来称呼疫情,这就成为一个问题;因此, Grammarly 的敏感文本分类器能够捕捉到这些情况,并能够向用户提供建议,归根结底,我们不能替你写作,但我们会建议你,这是一个不断变化和适应的事情,我们正在努力尽可能与现状保持一致。
作者:有新;来源公众号:有新Newin
本文作者 @有新Newin
版权声明
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!