4种人机交互模式,适合经验丰富的ChatGPT用户

来源:趣玩责编:网络时间:2024-11-12 13:58:23

ChatGPT 面世已经一年半了,但只有少数人使用这个AI 聊天机器人的时间超过30%。大多数人不知道生成式人工智能的“特征”,例如翻转交互、基于标准的自我评估以及与人类共同制定任务。结果,他们花了很多时间来详细说明人工智能的任务,并分析人工智能输出的许多修订,但结果仍然比他们预期的要差。让我们弄清楚如何解决它。

介绍

作为当地“AI管理”社区的活跃成员,我经常看到即使是ChatGPT和其他GenAI助手的经验丰富的用户也从传统的人与AI对话方式开始。他们认为他们必须编写完整的指令,而人工智能应该遵循他们的指令。

事实上,人工智能聊天机器人被简单地视为回答我们的问题、根据我们的提示生成文本或处理我们的数据的工具。如果聊天机器人不能提供令人满意的输出,我们要么需要更好地指导它,要么根本不使用它。如果我们没有时间详细描述任务,或者我们自己还没有完全实现它,那么我们就不需要人工智能。

然而,这种传统观点极大地限制了生成式人工智能的范围和价值。事实上,大型语言模型(LLM) 可以与我们一起发挥多种作用,而不仅仅是响应请求或遵循指令。此外,我们并不总是需要更好地指导或“训练”他们以获得更好的输出。

通过将人工智能应用于任务执行者或专家以外的角色,我们可以扩大人工智能可以帮助解决的问题范围,获得更高质量的结果,并减少编写指令的认知负担。使用不同的角色可以释放人工智能作为合作伙伴的真正潜力。

1. 翻转交互策略

AI角色领域中的第一个不明显的模式是“翻转交互”,其中AI通过提问来发挥主导作用。

研究论文[1] 研究了提示工程背景下的翻转交互模式,以及其他技术,例如定义聊天机器人的角色(角色模式)和指定输出格式(模板模式)。在一篇较短的博文中,翻转交互模式也被描述为一种提示技术,如下:

翻转的交互模式:释放对话式人工智能的力量

快速工程的魔力

媒体网站

然而,我认为翻转交互模式和类似的认知验证器模式是更高级别的“策略”。在制作提示之前,甚至在完成手头的任务之前,应该充分考虑提示。采用这种策略会影响你与人工智能交互的许多其他方面。

为什么

通常,这种方法减少了人类所需的时间和认知工作,完全符合典型人工智能用户的目标。同样,典型的互联网用户喜欢接收内容或产品建议,而不必自己表达查询。

用例

例如,人工智能聊天机器人经常被用作导师。这样的导师的一半好处不是它提供的建议(根据我的经验,这些建议往往过于笼统且无行动力),而是能够提出发人深省的问题,从而刺激用户寻找解决方案。问题。人工智能教练的角色也是如此,他会提出“有力的”开放式问题来帮助用户识别他们的问题和挑战。或者看看个性化人工智能导师的角色,它主要专注于识别用户知识和技能中的差距(提出问题),以便以后填补这些差距。同样,朋友的角色假设人工智能会提出问题。这些类型的问题可以让你更容易找到实现任何目标的动力。

实施例

例如,如果你想通过AI Tutor快速掌握一个广泛的主题,你可以先请求“问我N个关于该主题的开放式问题,以了解我目前的理解水平”。然后,要求对您的答案进行评估,并针对您认为最薄弱的领域提出新问题。

这导致了具有快速反馈的自适应学习。它还包括对您的教育需求进行透明的优先级排序,这与传统的自适应学习系统不同,传统的自适应学习系统的优先级对学习者来说是不透明的。

4种人机交互模式,适合经验丰富的ChatGPT用户

可以在此处找到与GPT-4 的聊天示例。在此示例中,主题是通过实践来学习的,因此ChatGPT 为用户提供作业而不是问题。

2. 协作任务定义和上下文增强

当人工智能聊天机器人作为实现完全不同目标的工具提出问题时,我还看到了翻转的交互。 AI QA 会议的目标是快速形成与任务相关的上下文,这对于进一步使用聊天机器人作为响应者/执行者的传统角色至关重要。

为什么

至少,这种方法可以帮助您克服“空白页”问题,这是面对复杂任务时拖延的主要原因。当您要求聊天机器人解决您以前从未解决过的问题时,这个问题尤其会出现。

理事会帖子:生成式人工智能和解决"空白页"问题

当我们对生成式人工智能的早期阶段感到紧张时,以下是我对机器和人类价值起点的看法......

福布斯网站

人们认为(以上面的帖子为例)快速将草稿任务写入人工智能可以帮助解决空白页问题。它可以提供帮助,但是此类草稿任务的AI 输出应该进行彻底检查,并且其中大部分总是由于质量差而被丢弃。

对于同一问题,更好的解决方案是首先从聊天机器人获取问题,然后生成输出。原因是我们选择问题并回答它们比从头开始描述任务要容易得多。

迭代提问的第二个优点是高质量的结果。结果取决于您的具体情况,而不仅仅是类似问题的通用解决方案。解决任务的整个途径可以围绕人工智能提出问题来构建。您回复他们并根据您的回复收到进一步的问题。这种情况一直持续到您告诉机器人类似“现在,考虑到上述所有因素,建议一个完整的解决方案”之类的短语。

用例

如果您很少处理此类任务或不熟悉该主题,则您可能缺乏正确的词语和对该任务的整体理解。然后,AI 会提示为您建议详细任务的多个版本,选择一个适合您需求的版本,您就可以期待高质量的结果。否则,适用“垃圾进,垃圾出”的原则。如果您是手头任务领域的专家,那么您可能很难深入几个级别并了解“通用助手”缺乏什么上下文来产生您期望的输出。让它告诉你它本身的需要!

实施例

情境形成问题的一个特例是在您尚未完全掌握任务时用来澄清任务的问题。最初,您可能会询问“建议与.相关的任务表述”之类的内容,然后选择最适合您需求的表述并说“问我问题以进一步澄清此任务”(类似于讨论问题细化模型和认知验证者模型)参见文章[1])。然后,你回答一些人工智能问题并故意忽略其他问题。忽略对于创建与任务相关的重点上下文也很重要。

当我说“选择某些项目”或“回答某些问题”时,我的意思是仅使用列表项的编号。所有最先进的法学硕士都很好地理解这些数字,并且它在节省时间方面派上用场。

作为一个具体的例子,让我们考虑一下为候选人准备行为面试的目标。对于人工智能来说,这并不是一件容易的事:

新手用户可能会要求人工智能根据有关职位空缺的几句话来制定面试问题,结果可能并不令人满意。有经验的用户将为人工智能提供尽可能多的相关信息,例如职位描述文件和/或职责列表。然而,即使在这种情况下,结果也往往过于笼统。大型语言模型(LLM)将具有漂亮的表示,但本质上它只是将所提供文档中的单词合并到模型训练所用的标准“面试模板”中。该模型从未执行过相关工作,因此它无法从本质上理解工作描述中特别重要的内容。此外,它无法知道哪些候选人特征对您特别重要(因为文档中没有此类信息)。因此,我们应该请人工智能提出澄清问题。我将按如下方式引导它:

从职位描述中提取实现上述目的所需的信息(见附件)。问我几个问题将有助于您了解这份工作的特点和我的个人喜好。确保问题具体且与文档一致。问题清单应该编号。确保您根据我的回答了解更多关于这份工作和我的偏好的信息。忽略我认为不相关的任何方面。然后,写出涵盖之前强调的所有要点的面试问题。您可以在此处找到遵循此示例的GPT-4 聊天。

如何避免人工智能的混乱?

4种人机交互模式,适合经验丰富的ChatGPT用户

您可以通过请求进一步澄清您的具体问题来继续上述过程。然而,尽量避免冗长和“为了问而问”的问题,因为目标不仅是帮助你理解你的任务,也是指导人工智能有效地解决任务。上下文中太多的单词可能会在以后让LLM 感到困惑,导致它偏离你的预期方向[4]。

为了减少人工智能混乱的可能性,你可以在解决任务之前说:“现在,考虑到上述所有因素,给出我的任务的完整表述”,而不是立即请求解决方案。该技术很有用,原因有二:

上下文中的最后一条消息成为完整的任务,为LLM 准备上下文的聊天机器人算法认为最新消息很重要。 LLM不会仅仅因为具有“注意力”就平等地对待上下文的所有部分。如果建议的任务描述不准确,最好在最后一步之前纠正它。

如何进一步减少您的工作量?

我确信您可以在实践中找到翻转交互可能对您特别有用的其他情况。该策略既可用于情境形成,也可用于质疑行为本身(人工智能作为教练、合作伙伴、导师或老师)。

然而,如果你经常翻转与人工智能的交互,你最终可能会厌倦让聊天机器人在几乎每一步都提出问题。因此,你可以要求AI只做一次。为了可靠性,最好在所谓的“系统提示”中询问。

大型语言模型中的系统提示

发现系统提示的力量 - 使开发人员能够定制 AI 行为并增强......的秘密武器

promptproject.org

如果您使用的是ChatGPT Plus,应用程序系统会提示您创建自己的GPT 并在“说明”字段中输入提示。然后,它与用户请求和助理的响应分开传递给法学硕士。另一种发出系统提示的方式不需要像ChatGPT Plus 那样昂贵的订阅。每个领先的LLM 提供商都提供另一种比ChatGPT、Claude.ai 或Google AI Studio 更具控制力的工具。 OpenAI 有Playground,Anthropic 有Solace,这两个工具都可以让您设置系统提示、选择LLM 版本、分配温度和其他参数。它比订阅需要更少的钱。此外,Anthropic 还为新用户提供5 美元的免费积分。以下是系统提示的示例短语:“如果用户请求某些内容(提出问题、给出指示等),那么您必须建议请求的更好版本(详细版本可能会产生更具体的输出)并询问用户是否愿意使用您的版本。 '。

3. 基于人类角色的人工智能交互

查看除了“客户执行者”模式之外您如何与其他人互动。交互不必翻转。我的意思是,主动性和问题不一定来自聊天机器人。事实上,前面提到的“导师-受训者”和“师生”模式不仅仅是前者的问题。

以下是你和人工智能之间其他一些可能的交互模型:

AI作为你的下属:定期审批和纠正

这种人际关系并不一定是老板发号施令,下属二话不说就执行。例如,下属经常向上级提出自己的想法、详细计划和初步结果,以供批准。

这样,管理人员只需参与工作流程的某些阶段即可节省时间,无论是准备季度报告、开发新产品还是制定新策略。然而,他们总是密切关注脉搏并反复参与,因为不可能提前预见一切或计算出所有细节。在工作过程中,外部环境可能会发生变化,员工可能会错过最后期限而导致重新安排时间等。

同样,您可以将自己视为“AI 机器人管理员”,例如:

让人工智能为你起草一份提示,对其进行批评,然后才请求执行。对于大多数现实世界的任务,单个提示是不够的。任务应该分解为几个相互关联的子任务。因此,要求AI来执行这种分解。明确定义您对人工智能的角色:您是一名经理,也是一名具有特定能力的员工。通知人工智能,它的任务是发送每个中间结果供您批准:想法列表、实施计划、文本的第一部分(如果目标是编写文本)以及所有其他工件。最重要的是,给人工智能一些小的、具体的指令,就好像你的新下属还不熟悉你的偏好和期望一样。例如,如果您修改了文本的第一部分,人工智能将被指示在风格和术语方面以第一部分为蓝本编写第二部分(而不是一次写出整个文本)。为什么它如此重要?通过向前迈出一小步,您将更快地达到您想要的结果。

我的意思是,这种方法比您最初详细描述任务然后批评最终结果要快。如果管理者以这种方式运作,他们将浪费大量时间,更重要的是,将大量金钱浪费在员工执行不必要的工作上(从而无法满足客户需求或质量要求)。

想象一下您想要写一篇大文本,例如年度报告或博客文章。您可以在互联网上找到许多提示示例,其中包括数十个句子和部分,例如目标、模板、指南和文本样式。或者,您可以考虑向人工智能提供您认为适合该任务的类似文本示例。这就是所谓的提示:

4种人机交互模式,适合经验丰富的ChatGPT用户

掌握提示概念:零样本和少样本提示

当我们深入研究这些人工智能技术及其应用的细微差别时,探索少样本和零样本方法......

一般来说,这两种方法都被证明是有效的,特别是如果编写此类文本是您的日常任务的话。在这种情况下,您已经熟悉必要的文本模板和样式,并且知道要避免的潜在陷阱。

即使经过多次迭代,结果仍不理想;让您承担进行技术修正的平凡任务,而人工智能则负责处理工作的所有创造性方面。你如何实现这一目标?

首先,采用前面提到的“经理-下属”模型技术(参见上面第2-4条)。这包括借助人工智能将任务分解为子任务,要求显示临时结果,以及使用您编辑的版本作为新部分的模板。

其次,让你与人工智能的沟通更加对称,使用“让我们讨论问题/想法/解决方案”或“让我们一起解决这个问题”,轮流建议更改,直到我说“完成”。 '

例如,让我们看一下子任务创建阶段。当从人工智能收到第一个版本的子任务列表时,重写需要澄清的项目(不明确的项目是最常见的问题)。然后,向人工智能提供修改后的列表,指定应删除哪些项目,并要求提供考虑到这些调整的新版本列表。

4. 协作工作的质量标准和评估

前面我讨论了实现“质量”结果的目标,现在有必要定义“质量”在这种情况下的含义。我的建议是在与人工智能的对话中明确定义质量标准。

通过在一开始就引入标准,你可以看到AI在其初稿中是否遵守了那些标准。然而,通常很难提前知道我们的标准。因此,在审查第一次修订后定义它们并没有什么问题。

如果指定标准后结果仍然达不到要求,您可以通过指出最新版本未能满足的标准来快速指导聊天机器人。举个例子,标准清单包括对每项声明的解释(第2项)以及是否符合所需的业务风格(第4项)。然后,您可以请求:“根据标准2 和4 改进文本。”人工智能将理解您并准确增强所需内容。

实施此类标准可以显着减少获得满足所有要求的结果所需的迭代次数。这种方法比简单地告诉人工智能“我不满意”或给出“满分10分中的3分”这样的总体评分更有效,后者可能会导致人工智能重复失败的尝试和道歉。

生成式人工智能还有一个不太明显的功能。

在请求新修订之前,您可以根据特定标准定量评估当前输出。你可以自己做,但让人工智能自己评分更容易。有一个术语:模型分层评估。不过,我不会高估LLM做出准确定量评估的能力。

如有必要,您还可以要求AI 计算所有标准的平均分。我已经用ChatGPT 尝试过这一点,它激活了其分析功能并准确地计算了算术平均值。

最后,可能会出现一个问题:“我们实际上从哪里得到质量标准?你总是应该自己详细描述它们吗?第三个能力是AI擅长制定标准。当然,AI可以从一般性考虑中生成许多不相关的点,但您可以轻松地仅选择对您来说重要的条件。此外,您可以通过提供“如果.则提高分数”和“施加罚款”等示例来要求AI 指定这些条件。 ……”。

一般来说,将人工智能视为你的共同作者(同事),不仅共同解决任务,而且共同思考如何增强解决方案。特别是考虑改进基于标准的评估,这可以提高质量并减少工作量。

结论

生成式人工智能聊天机器人的应用可以显着扩展,不仅可以将它们视为明确定义的任务的执行者,还可以扮演其他角色:

用户评论

苍白的笑〃

看起来很有意思!我一直想挑战一下自己跟聊天机器人打游戏的水平。

    有7位网友表示赞同!

゛指尖的阳光丶

体验过 Chat GPT 的能力,这游戏肯定很耐玩,我迫不及待要试试了!

    有6位网友表示赞同!

箜篌引

这个标题听起来专业而有趣,适合喜欢高端技术的玩家。

    有12位网友表示赞同!

我就是这样一个人

终于有适合我这种老手的挑战了!期待这四种模式给我不一样的乐趣。

    有12位网友表示赞同!

猫腻

作为 ChatGPT 经验丰富用户,我一定会体验一下这个游戏!

    有13位网友表示赞同!

未来未必来

如果能像真正的人类交互一样,那这游戏的难度可真就大了!

    有20位网友表示赞同!

水波映月

终于有可以锻炼我思考和反应能力的游戏了!

    有7位网友表示赞同!

凉话刺骨

喜欢人工智能技术的玩家,一定不能错过这个游戏。

    有5位网友表示赞同!

心安i

想看看 ChatGPT 在不同模式下会有怎样的表现!

    有10位网友表示赞同!

没过试用期的爱~

感觉这款游戏将会是测试玩家智商的好方法!

    有19位网友表示赞同!

陌颜

四种交互模式,应该能让我长时间玩乐的体验!

    有19位网友表示赞同!

挽手余生ら

期待这个游戏能够给我带来新的游戏体验!

    有19位网友表示赞同!

如你所愿

希望这四种模式各有特点,好玩又耐玩

    有20位网友表示赞同!

寒山远黛

这种类型的游戏非常适合探索人工智能的发展方向。

    有9位网友表示赞同!

葵雨

喜欢科技未来感的游戏,强烈推荐试试这款游戏!

    有20位网友表示赞同!

花开丶若相惜

作为 ChatGPT 的粉丝,我要第一时间去体验这个游戏!

    有15位网友表示赞同!

闲肆

希望这四种模式的难度递进,能够让玩家不断提升自己!

    有7位网友表示赞同!

爱情的过失

这将是一次既有趣又有意义的游戏挑战!

    有9位网友表示赞同!

猜你喜欢
最新游戏更多
热门专题更多
最新资讯更多