跳到主要内容

2 篇博文 含有标签「Machine Learning」

查看所有标签

生成式 AI 的企业趋势

· 阅读需 3 分钟

生成式 AI 的关键趋势

  • 机器学习进步重新定义计算能力
  • 计算和硬件需求的演变
  • 扩展(计算、数据、模型规模)改善结果

AI 能力的进展

  • 图像识别
    • 示例:“豹”分类,90.88% 准确率(ImageNet)
    • AlexNet 初始性能:63.3%
  • 语音识别
    • 在 LibriSpeech test-other 数据集上的性能提升

Transformers 和基础模型

  • 关键技术
    • 自回归训练
    • 使用数万亿标记进行预训练
    • 示例:“猫坐在垫子上”
  • 优化
    • 监督微调 (SFT)
    • 来自人类反馈的强化学习 (RLHF)

Gemini 模型

  • 项目启动于 2023 年 2 月
  • Gemini 1.0 发布:2023 年 12 月
  • Gemini 1.5 发布:2024 年 2 月
  • 特点
    • 跨文本、图像和视频的多模态推理
    • 长上下文能力(最多 1000 万标记)
    • 降低幻觉率

企业 AI 趋势

  1. 随着数据需求的减少,加速 AI 开发
  2. 从单一模态系统向多模态系统过渡
  3. 从密集模型架构向稀疏模型架构转变
  4. 可扩展和灵活平台的重要性
  5. API 成本下降
  6. LLMs 和搜索的集成

定制化和效率

  • 技术
    • 微调和参数高效调优(例如,LoRA)
    • 蒸馏以优化性能和延迟
  • 挑战
    • 在部署中平衡成本、延迟和性能
  • 函数调用
    • 集成 API、数据库和外部系统
    • 应用:数据检索、工作流程、客户支持

解决限制

  • 问题
    • 冻结的训练数据导致知识过时
    • 高幻觉率
    • 不一致的结构化输出
  • 解决方案
    • 检索增强生成 (RAG) 框架
    • 以私有、新鲜和权威数据为基础
    • 带有引用的结构化输出

生成式 AI 的未来

  • 增强的多模态推理和扩展的上下文能力
  • 优化以降低成本和提高可扩展性
  • 改进输出的基础性和事实准确性

LLM 推理:关键理念与局限性

· 阅读需 4 分钟

推理是提升 LLM 能力的关键

介绍

  • 对 AI 的期望:解决复杂的数学问题,发现科学理论,实现通用人工智能(AGI)。
  • 基本期望:AI 应该能够通过少量示例模拟人类的学习方式。

关键概念

  • 机器学习中缺少什么?
    • 推理:从最少的示例中逻辑推导出答案的能力。

玩具问题:最后字母连接

  • 问题

    : 提取单词的最后一个字母并将其连接。

    • 示例:"Elon Musk" → "nk"。
  • 传统机器学习:需要大量标记数据。

  • LLM:通过推理,只需一次演示即可实现 100% 准确率。

中间步骤的重要性

  • 人类通过推理和中间步骤解决问题。
  • 示例:
    • 输入:"Elon Musk"
    • 推理:"Elon" 的最后一个字母是 "n","Musk" 的最后一个字母是 "k"。
    • 输出:"nk"。

推理方法的进展

  1. 链式思维(CoT)提示
    • 将问题分解为逻辑步骤。
    • 数学文字题的示例展示了增强的问题解决准确性。
  2. 从易到难提示
    • 将问题分解为更简单的子问题以逐步概括。
  3. 类比推理
    • 从相关问题中调整解决方案。
    • 示例:通过回忆距离公式逻辑来找到正方形的面积。
  4. 零样本和少样本链式思维
    • 在没有明确示例的情况下触发推理。
  5. 解码中的自我一致性
    • 采样多个响应以提高逐步推理的准确性。

局限性

  • 被无关上下文干扰
    • 添加无关细节会显著降低性能。
    • 解决方案:明确指示模型忽略干扰。
  • 自我纠错的挑战
    • LLM 有时无法自我纠正错误,甚至可能使正确答案变得更糟。
    • Oracle 反馈对于有效纠正至关重要。
  • 前提顺序重要
    • 重新排序问题前提会导致性能下降,强调逻辑进程的重要性。

实际影响

  • 中间推理步骤对于解决连续问题至关重要。
  • 像使用单元测试进行自我调试的技术对未来改进充满希望。

未来方向

  1. 定义正确的问题对于进步至关重要。
  2. 通过开发能够自主解决这些问题的模型来解决推理局限性。