From 592918e8d7416c1ff870c27d654a79a000f8e092 Mon Sep 17 00:00:00 2001
From: =?UTF-8?q?=E5=B0=91=E8=BD=BB=E7=8B=82?=
<49270362+MarleneJiang@users.noreply.github.com>
Date: Thu, 27 Apr 2023 10:54:24 +0800
Subject: [PATCH] =?UTF-8?q?Update=204.11=E4=BB=8E=20AI=20=E5=88=B0=20?=
=?UTF-8?q?=E6=99=BA=E8=83=BD=E7=B3=BB=E7=BB=9F=20=E2=80=94=E2=80=94=20?=
=?UTF-8?q?=E4=BB=8E=20LLMs=20=E5=88=B0=20Agents.md?=
MIME-Version: 1.0
Content-Type: text/plain; charset=UTF-8
Content-Transfer-Encoding: 8bit
---
....11从 AI 到 智能系统 —— 从 LLMs 到 Agents.md | 6 ++++--
1 file changed, 4 insertions(+), 2 deletions(-)
diff --git a/4.人工智能/4.11从 AI 到 智能系统 —— 从 LLMs 到 Agents.md b/4.人工智能/4.11从 AI 到 智能系统 —— 从 LLMs 到 Agents.md
index b185c45..d046dbb 100644
--- a/4.人工智能/4.11从 AI 到 智能系统 —— 从 LLMs 到 Agents.md
+++ b/4.人工智能/4.11从 AI 到 智能系统 —— 从 LLMs 到 Agents.md
@@ -223,7 +223,9 @@ ICL(In-Context Learning,上下文学习)和 COT(Chain of Thought,思
ICL 为输出增加惯性
-> 可以简单认为,通过 ICL Prompt,能强化人类输入到机器输出的连贯性,借以提升输出的确定性。
在经过“回答”的 finetune 之前,大模型的原始能力就是基于给定文本进行接龙,而 ICL 的引入则在“回答”这一前提条件下,降低了机器开始接龙这一步骤中的语义跨度,从而使得输出更加可控。
COT:

+> 可以简单认为,通过 ICL Prompt,能强化人类输入到机器输出的连贯性,借以提升输出的确定性。
在经过“回答”的 finetune 之前,大模型的原始能力就是基于给定文本进行接龙,而 ICL 的引入则在“回答”这一前提条件下,降低了机器开始接龙这一步骤中的语义跨度,从而使得输出更加可控。
+
+COT:

COT 为输出增加关联
@@ -510,7 +512,7 @@ AutoGPT 主要特性如下:
- 接入互联网获取信息
- 长期和短期内存管理
-考虑到工程细节,该项目实际上没用特别大的药的落地案例,但毫无疑问这是面向未来的 GPT 使用方式
+考虑到工程细节,该项目实际上没有特别大的落地案例,但毫无疑问这是面向未来的 GPT 使用方式
其核心机制在于,通过 LLMs 和 记忆/目标管理模块 的符合,构建出了一个复杂的 Agent 系统