Update 4.11从 AI 到 智能系统 —— 从 LLMs 到 Agents.md

This commit is contained in:
少轻狂
2023-04-27 10:54:24 +08:00
committed by GitHub
parent 5d4608c4e7
commit 592918e8d7

View File

@@ -223,7 +223,9 @@ ICLIn-Context Learning上下文学习和 COTChain of Thought
ICL 为输出增加惯性
> 可以简单认为,通过 ICL Prompt能强化人类输入到机器输出的连贯性借以提升输出的确定性。<br/>在经过“回答”的 finetune 之前,大模型的原始能力就是基于给定文本进行接龙,而 ICL 的引入则在“回答”这一前提条件下,降低了机器开始接龙这一步骤中的语义跨度,从而使得输出更加可控。<br/>COT<br/>![](https://hdu-cs-wiki.oss-cn-hangzhou.aliyuncs.com/NT04baWdNoYzRrxjJFfcXCgbnLh.png)
> 可以简单认为,通过 ICL Prompt能强化人类输入到机器输出的连贯性借以提升输出的确定性。<br/>在经过“回答”的 finetune 之前,大模型的原始能力就是基于给定文本进行接龙,而 ICL 的引入则在“回答”这一前提条件下,降低了机器开始接龙这一步骤中的语义跨度,从而使得输出更加可控。<br/>
COT<br/>![](https://hdu-cs-wiki.oss-cn-hangzhou.aliyuncs.com/NT04baWdNoYzRrxjJFfcXCgbnLh.png)
COT 为输出增加关联
@@ -510,7 +512,7 @@ AutoGPT 主要特性如下:
- 接入互联网获取信息
- 长期和短期内存管理
考虑到工程细节,该项目实际上没特别大的药的落地案例,但毫无疑问这是面向未来的 GPT 使用方式
考虑到工程细节,该项目实际上没特别大的落地案例,但毫无疑问这是面向未来的 GPT 使用方式
其核心机制在于,通过 LLMs 和 记忆/目标管理模块 的符合,构建出了一个复杂的 Agent 系统