您会发现您在学校甚至工作中的作业中已经看到了其中的大部分内容。指令是一个清晰简洁的命令,告诉语言模型要做什么(例如,“计算农场里有多少只鸡和驴。”)。上下文提供了额外的背景信息或细节(例如,“农场里有鸡和驴。阿尔玛有 245 个头和 144 条腿。”)。实践示例是说明所需结果的特定输入输出对 - 这可能是海蒂的一个例子,她之前曾在自己的农场里数过山羊和土拨鼠。最近有很多关于这些例子的顺序、数量和适合度的研究,特别是在情境学习的背景下。没有练习示例的提示通常称为零样本提示,一个示例称为单样本,多个示例称为少样本提示。此外,有些指导提示在没有示例的情况下也能很好地发挥作用,因为清晰的指令提供了功能性关键字:例 护理院电子邮件列表 如“将此文本翻译成荷兰语”(关键字:translate)或“按平均大小对动物进行排序”(关键字:sort)。规范或任务焦点包含详细的描述性提示,可以更准确地指导语言模型(例如,“创建招聘广告并确保语气正式。”)。为了清楚地分隔提示中的各个部分,可以使用分隔符(例如“### Context ###”)。还可以指定包含响应的预期格式或结构的输出指示符(包括“输出为鸡:[鸡的数量],驴:[驴的数量]”)。最后,可以定义提示答案所针对的目标组。一个例子是:“什么是云计算?像我五岁一样解释一下。”
代币限制的作用
提示只能包含最大数量的标记。标记可以是完整的单词、单词的一部分,甚至只是单个字符。 100 个标记相当于大约 75 个英语单词。根据 GPT 模型,最多可以为提示和相应的响应分配 128,000 个代币。可能需要仔细考虑提示中的每个字符。提示的大小对人们也有影响。与机器一样,人类的工作记忆也是有限的。您一次只能处理一定数量的单词。任何在敏捷环境中工作的人都熟悉公告板上的那些故事,这些故事似乎没有尽头,并在大量文本中隐藏了一系列无法识别的子任务。如果任务彼此不相关,我们建议将它们分开。
然而,将复杂的任务分解为多个步骤,例如通过辩论、计划或顺序推理等逐步过程,可以更有效地利用模拟工作记忆。如何将提示准确地划分为多个步骤取决于后续步骤与先前步骤的上下文的紧密程度。输入中不必使用最大数量的标记。在 ChatGPT 示例中,您可以输入文本并多次按发送按钮 - 在有关主题的讨论中,这算作提示。但是,一旦达到最大令牌数,第一个令牌就会开始在框架外运行,并且不再对正在进行的对话产生任何影响。