From 592918e8d7416c1ff870c27d654a79a000f8e092 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=E5=B0=91=E8=BD=BB=E7=8B=82?= <49270362+MarleneJiang@users.noreply.github.com> Date: Thu, 27 Apr 2023 10:54:24 +0800 Subject: [PATCH] =?UTF-8?q?Update=204.11=E4=BB=8E=20AI=20=E5=88=B0=20?= =?UTF-8?q?=E6=99=BA=E8=83=BD=E7=B3=BB=E7=BB=9F=20=E2=80=94=E2=80=94=20?= =?UTF-8?q?=E4=BB=8E=20LLMs=20=E5=88=B0=20Agents.md?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- ....11从 AI 到 智能系统 —— 从 LLMs 到 Agents.md | 6 ++++-- 1 file changed, 4 insertions(+), 2 deletions(-) diff --git a/4.人工智能/4.11从 AI 到 智能系统 —— 从 LLMs 到 Agents.md b/4.人工智能/4.11从 AI 到 智能系统 —— 从 LLMs 到 Agents.md index b185c45..d046dbb 100644 --- a/4.人工智能/4.11从 AI 到 智能系统 —— 从 LLMs 到 Agents.md +++ b/4.人工智能/4.11从 AI 到 智能系统 —— 从 LLMs 到 Agents.md @@ -223,7 +223,9 @@ ICL(In-Context Learning,上下文学习)和 COT(Chain of Thought,思 ICL 为输出增加惯性 -> 可以简单认为,通过 ICL Prompt,能强化人类输入到机器输出的连贯性,借以提升输出的确定性。
在经过“回答”的 finetune 之前,大模型的原始能力就是基于给定文本进行接龙,而 ICL 的引入则在“回答”这一前提条件下,降低了机器开始接龙这一步骤中的语义跨度,从而使得输出更加可控。
COT:
![](https://hdu-cs-wiki.oss-cn-hangzhou.aliyuncs.com/NT04baWdNoYzRrxjJFfcXCgbnLh.png) +> 可以简单认为,通过 ICL Prompt,能强化人类输入到机器输出的连贯性,借以提升输出的确定性。
在经过“回答”的 finetune 之前,大模型的原始能力就是基于给定文本进行接龙,而 ICL 的引入则在“回答”这一前提条件下,降低了机器开始接龙这一步骤中的语义跨度,从而使得输出更加可控。
+ +COT:
![](https://hdu-cs-wiki.oss-cn-hangzhou.aliyuncs.com/NT04baWdNoYzRrxjJFfcXCgbnLh.png) COT 为输出增加关联 @@ -510,7 +512,7 @@ AutoGPT 主要特性如下: - 接入互联网获取信息 - 长期和短期内存管理 -考虑到工程细节,该项目实际上没用特别大的药的落地案例,但毫无疑问这是面向未来的 GPT 使用方式 +考虑到工程细节,该项目实际上没有特别大的落地案例,但毫无疑问这是面向未来的 GPT 使用方式 其核心机制在于,通过 LLMs 和 记忆/目标管理模块 的符合,构建出了一个复杂的 Agent 系统