跳到主要内容

2 篇博文 含有标签「LLM」

查看所有标签

LLM 代理的历史与未来

· 阅读需 3 分钟

LLM 代理的轨迹和潜力

介绍

  • 代理的定义:与环境(物理、数字或人类)交互的智能系统。
  • 演变:从像 ELIZA(1966)这样的符号 AI 代理到现代基于 LLM 的推理代理。

核心概念

  1. 代理类型
    • 文本代理:像 ELIZA(1966)这样的基于规则的系统,范围有限。
    • LLM 代理:利用大型语言模型进行多功能的文本交互。
    • 推理代理:结合推理和行动,能够在各个领域进行决策。
  2. 代理目标
    • 执行问答(QA)、游戏解决或现实世界自动化等任务。
    • 平衡推理(内部行动)和行动(外部反馈)。

LLM 代理的关键发展

  1. 推理方法
    • 链式思维(CoT):通过逐步推理提高准确性。
    • ReAct 范式:将推理与行动结合进行系统探索和反馈。
  2. 技术里程碑
    • 零样本和少样本学习:通过最少的例子实现通用性。
    • 记忆整合:结合短期(基于上下文)和长期记忆以实现持久学习。
  3. 工具和应用
    • 代码增强:通过编程方法增强计算推理。
    • 检索增强生成(RAG):利用外部知识来源,如 API 或搜索引擎。
    • 复杂任务自动化:在机器人和化学领域的体现推理,以 ChemCrow 为例。

局限性

  • 实际挑战
    • 处理现实世界环境的困难(例如,处理不完整数据的决策)。
    • 易受无关或对抗性上下文的影响。
  • 可扩展性问题
    • 现实世界机器人与数字模拟的权衡。
    • 在特定领域进行微调和数据收集的高成本。

研究方向

  • 统一解决方案:将多样化任务简化为可推广的框架(例如,用于探索和决策的 ReAct)。
  • 先进的记忆架构:从仅追加日志转向自适应的、可写的长期记忆系统。
  • 与人类合作:专注于增强人类创造力和解决问题的能力。

未来展望

  • 新兴基准
    • 用于软件工程任务的 SWE-Bench。
    • 用于在动态环境中微调 LLM 代理的 FireAct。
  • 更广泛的影响
    • 增强的数字自动化。
    • 在软件工程、科学发现和网络自动化等领域提供复杂问题解决的可扩展解决方案。

LLM 推理:关键理念与局限性

· 阅读需 4 分钟

推理是提升 LLM 能力的关键

介绍

  • 对 AI 的期望:解决复杂的数学问题,发现科学理论,实现通用人工智能(AGI)。
  • 基本期望:AI 应该能够通过少量示例模拟人类的学习方式。

关键概念

  • 机器学习中缺少什么?
    • 推理:从最少的示例中逻辑推导出答案的能力。

玩具问题:最后字母连接

  • 问题

    : 提取单词的最后一个字母并将其连接。

    • 示例:"Elon Musk" → "nk"。
  • 传统机器学习:需要大量标记数据。

  • LLM:通过推理,只需一次演示即可实现 100% 准确率。

中间步骤的重要性

  • 人类通过推理和中间步骤解决问题。
  • 示例:
    • 输入:"Elon Musk"
    • 推理:"Elon" 的最后一个字母是 "n","Musk" 的最后一个字母是 "k"。
    • 输出:"nk"。

推理方法的进展

  1. 链式思维(CoT)提示
    • 将问题分解为逻辑步骤。
    • 数学文字题的示例展示了增强的问题解决准确性。
  2. 从易到难提示
    • 将问题分解为更简单的子问题以逐步概括。
  3. 类比推理
    • 从相关问题中调整解决方案。
    • 示例:通过回忆距离公式逻辑来找到正方形的面积。
  4. 零样本和少样本链式思维
    • 在没有明确示例的情况下触发推理。
  5. 解码中的自我一致性
    • 采样多个响应以提高逐步推理的准确性。

局限性

  • 被无关上下文干扰
    • 添加无关细节会显著降低性能。
    • 解决方案:明确指示模型忽略干扰。
  • 自我纠错的挑战
    • LLM 有时无法自我纠正错误,甚至可能使正确答案变得更糟。
    • Oracle 反馈对于有效纠正至关重要。
  • 前提顺序重要
    • 重新排序问题前提会导致性能下降,强调逻辑进程的重要性。

实际影响

  • 中间推理步骤对于解决连续问题至关重要。
  • 像使用单元测试进行自我调试的技术对未来改进充满希望。

未来方向

  1. 定义正确的问题对于进步至关重要。
  2. 通过开发能够自主解决这些问题的模型来解决推理局限性。