2024年3月24日
大语言模型的预训练[6]:思维链(Chain-of-thought,CoT)定义原理详解、Zero-shot CoT、Few-shot CoT 以及在LLM上应用 1.思维链定义 背景 在 2017-2019 年之间,随着 Transformer 模型的提出,计算资源与大规模语料库不断出现,自然语言处理领域发生了翻天覆地的变化,传统的全监……
阅读全文
2024年3月24日
Prompt进阶系列5:LangGPT(提示链Prompt Chain)–提升模型鲁棒性 随着对大模型的应用实践的深入,许多大模型的使用者, Prompt 创作者对大模型的应用越来越得心应手。和 Prompt 有关的各种学习资料,各种优质内容也不断涌现。关于 Prompt 的实践的不断深入,大家对 Prompt 的认知也越来越深入。但同时……
阅读全文
2024年3月24日
Prompt进阶3:LangGPT(构建高性能质量Prompt策略和技巧2)–稳定高质量文案生成器 1.LangGPT介绍 现有 Prompt 创建方法有如下缺点: 缺乏系统性:大多是细碎的规则,技巧,严重依赖个人经验 缺乏灵活性:对他人分享的优质 prompt 进行调整需要直接修改 prompt 内容 缺乏交互友好性:优质 prompt 的配……
阅读全文
2024年3月24日
Prompt进阶2:LangGPT(构建高性能Prompt策略和技巧)–最佳实践指南 0.前言 左图右图 prompt 基本是一样的,差别只在提示工程这个词是否用中英文表达。我们看到,一词之差,回答质量天壤之别。为了获得理想的模型结果,我们需要调整设计提示词,这也就是所谓的提示工程。 一个广泛的理解……
阅读全文
2024年3月24日
Prompt进阶系列1:LangGPT(从编程语言反思LLM的结构化可复用提示设计框架) 大语言模型 (Large Language Models, LLMs) 在不同领域都表现出了优异的性能。然而,对于非AI专家来说,制定高质量的提示来引导 LLMs 是目前AI应用领域的一项重要挑战。现有的提示工程研究已经提出了一些零散的优化原则,也有些研究……
阅读全文
2024年3月24日
https://arxiv.org/pdf/2403.04121.pdf 虽然人类有时确实表现出通过自我批评纠正自己错误猜测的能力,但在LLMs的情况下,这种假设似乎没有基础。 https://arxiv.org/pdf/2403.14312v1.pdf 思想链(CoT)提示可以增强大型语言模型(LLMs)的推理能力,使其成为解决复杂推理任务的主要方法。现有的 CoT 综合方法通常专注于更简单的推理任务,从而导致低质量和不一致的 CoT 提示……
阅读全文
2024年3月24日
https://arxiv.org/pdf/2403.04121.pdf 虽然人类有时确实表现出通过自我批评纠正自己错误猜测的能力,但在LLMs的情况下,这种假设似乎没有基础。 https://arxiv.org/pdf/2403.14312v1.pdf 思想链(CoT)提示可以增强大型语言模型(LLMs)的推理能力,使其成为解决复杂推理任务的主要方法。现有的 CoT 综合方法通常专注于更简单的推理任务,从而导致低质量和不一致的 CoT 提示……
阅读全文
2024年3月24日
在这篇博文中,我将分享我所学到的关于文本生成的知识。当我深入人工智能和机器学习的世界时,这对我来说是一次相当大的探索之旅。我想了解计算机如何生成文本,所以我做了一些挖掘。 一路走来,我遇到了不同的方法和模型,我很高兴与您分享我的发现。我们将首先讨论称为马尔可夫链的东西,然后转向更高……
阅读全文
2024年3月24日
要让大型语言模型(LLM)充分发挥其能力,有效的 prompt 设计方案是必不可少的,为此甚至出现了 prompt engineering(提示工程)这一新兴领域。 在各种 prompt 设计方案中,思维链(CoT)凭借其强大的推理能力吸引了许多研究者和用户的眼球,基于其改进的 CoT-SC 以及更进一步的思维树(ToT)也收获了大量关……
阅读全文
2024年3月24日
引言 为进一步提升大型语言模型(LLM)解决复杂问题的能力,今天给大家分享的这篇文章,作者提出了思维图(GoT),其性能超过了思维链(CoT)、思维树(ToT)。思维图(GoT)的关键思想是能够将LLM生成的信息建模为任意图,其中信息单位是顶点,边代表顶点之间的依赖关系。这种方法优……
阅读全文