如何促使朋友并影响人们
2024 年 4 月 6 日

人们更像AI语言模型,胜过你想的。以下是一些提示技巧。

在与朋友交谈时,您也可以成功地引导他们。

在我们正常的做法中,Ars发布了这个有用的指南,教您如何引导“人脑”,当您在日常生活中遇到时。

尽管像ChatGPT (opens new window)这样的AI助手已经风靡全球,但越来越多的研究 (opens new window)显示,也有可能从所谓的“人类语言模型”或人们中生成有用的输出。很像像拉 自然语言生成模型(LLMs)在人工智能中扮演着重要角色,与HLMs不同的是,它们能够接收您提供的信息并将其转化为有意义的回应——只要您知道如何制定有效的指令,也就是所谓的“提示”。

人类提示工程是一门古老的艺术形式,至少可以追溯到亚里士多德时代,它也在现代计算机出现之前通过出版的书籍变得广受欢迎。

由于与人类互动可能很困难,我们整理了一份关于几种关键提示技巧的指南,这将帮助您在与人类语言模型的对话中获得最大的收益。但首先,让我们了解一些HLMs的能力。

理解人类语言模型 #

像ChatGPT、Microsoft Copilot这样的LLMs可以做些什么? 在这篇文章中,微软CoPilot (opens new window)Google Gemini (opens new window)Anthropic Claude (opens new window)都依赖于一个称为“提示”的输入,这个输入可以是一个文本字符串或者一个编码成一系列令牌(数据片段)的图像。每个AI模型的目标是获取这些令牌并根据训练到它们神经网络中的数据来预测接下来最有可能的令牌。这种预测成为模型的输出。

同样地,提示允许人类语言模型以更具上下文准确性的方式利用它们的训练数据来回忆信息。例如,如果你用“Mary had a”提示一个人,你可能期望一个HLM用“小羊羔”来完成这句话。 在教育或养育数据集中经常遇到著名童谣的频繁实例。但是,如果您在提示中添加更多背景信息,比如"在医院,玛丽生了一个,"那么人们可能会转而利用与医院和分娩相关的训练数据,并完成这句话说"宝宝"。

人类依赖一种生物神经网络(称为"大脑")来处理信息。每个大脑从出生开始就接受了各种文本和视听媒体的广泛训练,包括大型受版权保护的数据集。(可预见,一些人偶尔会复制受版权保护的内容或其他人的产出,这可能会使他们陷入麻烦。)

尽管我们经常与人类互动,科学家们对HLMs如何处理语言或与周围世界互动仍然了解不全面。HLMs仍被认为是一个"黑盒子"。 OpenAI Peeks into the Black Box of Neural Networks with New Research

人们常将人类大脑比作黑匣子 (opens new window),我们知道输入和输出是什么,但大脑结构如何产生复杂的思维过程却是一个谜。例如,人类是否真正“理解”你在提示他们什么,还是仅仅基于他们的训练数据做出反应?他们是否真的可以“推理”,还是只是从外部来源学到的事实的新颖排列?生物机器如何获得并使用语言?这种能力似乎是通过从其他人处的预训练而自发产生的,然后通过教育进行进一步调整。

尽管大脑是黑匣子的本质,大多数专家认为人类会构建一个世界模型 (opens new window)(对周围外部世界的内部表示)来帮助完成提示,并且拥有先进的数学能力,尽管这在不同情况下可能变化。 自然语言处理模型在不同模型之间的准确性差异很大,大多数仍然需要访问外部工具来完成准确的计算。然而,人类最有用的优势可能在于口头视觉用户界面,该界面利用视觉和语言处理来对多模态输入(语音、文本、声音或图像)进行编码,然后根据提示生成连贯的输出。

人类还展示了令人印象深刻的少样本学习能力。 自然语言模型的另一个关键优势是,它们能够利用几个提供的示例快速适应上下文中的新任务。它们的零样本学习能力同样令人瞩目,许多自然语言模型能够处理新问题,而无需任何先前特定任务的训练数据(或者至少尝试处理,成功程度各不相同)。

有趣的是,一些自然语言模型在常识推理基准测试中表现出色,展示了它们利用真实世界“知识”回答问题和做推断的能力。它们还倾向于在开放式文本生成任务上表现出色,比如写故事和作文,产生连贯而富有创意的输出。 这是Markdown内容:-工程学-如何像ChatGPT一样与人交谈/2/) 3 (opens new window) 4 (opens new window) 下一页 → (opens new window)