项目简介
欢迎来到 AutoAgent!AutoAgent 是一个全自动且高度自发展的框架,用户仅通过自然语言即可创建和部署LLM智能体。AutoAgent 是一个“全自动、零代码”的 LLM Agent 框架,能让你通过日常语言(比如“帮我写个总结”)告诉系统你想要什么,然后它自动帮你生成一个智能助手(AI Agent)。这些助手是用像 GPT-4 或 Claude 这样的大模型驱动的,但你不需要懂技术也能用。
✨关键特性
🏆 GAIA 基准测试中的顶级表现者AutoAgent 在开源方法中排名第一,其性能与 OpenAI 的深度研究相当。
📚 带有原生自我管理向量数据库的 Agentic-RAG配备原生自我管理向量数据库的 AutoAgent,在性能上超越了 LangChain 等行业领先解决方案。
✨ 轻松创建代理和工作流程
AutoAgent 利用自然语言轻松构建现成的工具、代理和工作流程 - 无需编码。
🌐 通用LLM 支持AutoAgent 无缝集成多种 LLMs(例如,OpenAI、Anthropic、Deepseek、vLLM、Grok、Huggingface ...)
🔀 灵活交互享受对函数调用和 ReAct 交互模式的全面支持。
🤖 动态、可扩展、轻量级AutoAgent 是您的个人 AI 助手,旨在实现动态、可扩展、定制和轻量级。
🚀 解锁LLM代理的未来。现在就尝试 🔥AutoAgent🔥!
🔍 如何使用 AutoAgent1. user mode
(SOTA 🏆 开放深度研究)
AutoAgent 拥有即插即用的多智能体系统,您可以在启动页面选择 user mode
使用它。这个多智能体系统是一个通用人工智能助手,具有与 OpenAI 的深度研究相同的功能,在 GAIA 基准测试中具有可比的性能。
- 🚀 高性能:使用 Claude 3.5 而不是 OpenAI 的 o3 模型与深度研究相匹配。
- 🔄 模型灵活性:兼容任何 LLM(包括 Deepseek-R1、Grok、Gemini 等)。
- 💰 成本效益:Deep Research $200/月订阅的免费开源替代方案
- 🎯 用户友好:易于部署的命令行界面,实现无缝交互
- 📁 文件支持:处理文件上传,增强数据交互
🎥 深度研究(又称用户模式)
2. agent editor
(无工作流创建代理)
AutoAgent 最显著的特点是其自然语言定制能力。与其他代理框架不同,AutoAgent 允许您仅使用自然语言创建工具、代理和工作流程。只需选择 agent editor
或 workflow editor
模式,即可开始通过对话构建代理的旅程。
user mode
(SOTA 🏆 开放深度研究)user mode
使用它。这个多智能体系统是一个通用人工智能助手,具有与 OpenAI 的深度研究相同的功能,在 GAIA 基准测试中具有可比的性能。agent editor
(无工作流创建代理)agent editor
或 workflow editor
模式,即可开始通过对话构建代理的旅程。3. workflow editor
(有工作流创建代理)您还可以使用 workflow editor
模式通过自然语言描述创建代理工作流程,
⚡ 快速开始
安装AutoAgent 安装
git clone https://github.com/HKUDS/AutoAgent.git
cd AutoAgent
pip install -e .
Docker 安装我们使用 Docker 来容器化代理交互环境。因此请先安装 Docker。您不需要手动拉取预构建镜像,因为我们已经让 Auto-Deep-Research 根据您的机器架构自动拉取预构建镜像。
API 密钥设置
创建一个环境变量文件,就像.env.template 一样,并设置你要使用的LLMs的 API 密钥。并非每个LLM API 密钥都是必需的,使用你需要的即可。
# Required Github Tokens of your own
GITHUB_AI_TOKEN=
# Optional API Keys
OPENAI_API_KEY=
DEEPSEEK_API_KEY=
ANTHROPIC_API_KEY=
GEMINI_API_KEY=
HUGGINGFACE_API_KEY=
GROQ_API_KEY=
XAI_API_KEY=
以命令行模式开始
命令选项:
您可以运行auto main 来启动 AutoAgent 的全部功能,包括user mode 、 agent editor 和 workflow editor 。顺便说一句,您也可以运行auto deep-research 来启动更轻量级的 user mode ,就像 Auto-Deep-Research 项目一样。以下是一些此命令的配置示例。
- --container_name :Docker 容器的名称(默认:'deepresearch')
- --port : 容器端口(默认:12346)
- COMPLETION_MODEL : 指定要使用的 LLM 模型,您应遵循 Litellm 的命名方式设置模型名称。(默认:
claude-3-5-sonnet-20241022
) - DEBUG : 启用调试模式以获取详细日志(默认:False)
- API_BASE_URL : LLM 提供者的基本 URL(默认:无)
- FN_CALL : 启用函数调用(默认:无)。大多数情况下,您可以忽略此选项,因为我们已经根据模型名称设置了默认值。
- git_clone : 将 AutoAgent 仓库克隆到本地环境(仅支持使用
auto main
命令,默认:True) - test_pull_name : 测试拉取的名称。(仅支持使用
auto main
命令,默认:'autoagent_mirror')
关于 git_clone
和 test_pull_name
的更多详细信息]在 agent editor
和 workflow editor
模式下,我们应该将 AutoAgent 仓库的镜像克隆到本地交互式环境,并让我们的 AutoAgent 自动更新 AutoAgent 本身,例如创建新的工具、代理和工作流程。因此,如果您想使用 agent editor
和 workflow editor
模式,您应该将 git_clone
设置为 True,并将 test_pull_name
设置为 'autoagent_mirror' 或其他分支。
auto main
使用不同的 LLM 提供商
然后,我将向您展示如何使用 AutoAgent 的完整功能,通过 auto main
命令和不同的LLM提供商。如果您想使用 auto deep-research
命令,可以参考 Auto-Deep-Research 项目获取更多详细信息。
auto main
使用不同的 LLM 提供商Anthropic
- 在
.env
文件中设置ANTHROPIC_API_KEY
。
ANTHROPIC_API_KEY=your_anthropic_api_key
- 运行以下命令以启动 Auto-Deep-Research。
auto main # default model is claude-3-5-sonnet-20241022
OpenAI
- 在
.env
文件中设置OPENAI_API_KEY
。
OPENAI_API_KEY=your_openai_api_key
- 运行以下命令以启动 Auto-Deep-Research。
COMPLETION_MODEL=gpt-4o auto main
Mistral
- 在
.env
文件中设置MISTRAL_API_KEY
。
MISTRAL_API_KEY=your_mistral_api_key
- 运行以下命令以启动 Auto-Deep-Research。
COMPLETION_MODEL=mistral/mistral-large-2407 auto main
Gemini - 谷歌 AI 工作室
- 在
.env
文件中设置GEMINI_API_KEY
。
GEMINI_API_KEY=your_gemini_api_key
- 运行以下命令以启动 Auto-Deep-Research。
COMPLETION_MODEL=gemini/gemini-2.0-flash auto main
Hugging Face
- 在
.env
文件中设置HUGGINGFACE_API_KEY
。
HUGGINGFACE_API_KEY=your_huggingface_api_key
- 运行以下命令以启动 Auto-Deep-Research。
COMPLETION_MODEL=huggingface/meta-llama/Llama-3.3-70B-Instruct auto main
Groq
- 在
.env
文件中设置GROQ_API_KEY
。
GROQ_API_KEY=your_groq_api_key
- 运行以下命令以启动 Auto-Deep-Research。
COMPLETION_MODEL=groq/deepseek-r1-distill-llama-70b auto main
OpenAI-兼容端点(例如,Grok)
- 在
.env
文件中设置OPENAI_API_KEY
。
OPENAI_API_KEY=your_api_key_for_openai_compatible_endpoints
- 运行以下命令以启动 Auto-Deep-Research。
COMPLETION_MODEL=openai/grok-2-latest API_BASE_URL=https://api.x.ai/v1 auto main
OpenRouter(例如,DeepSeek-R1)
我们建议暂时使用 OpenRouter 作为 DeepSeek-R1 的LLM提供商。因为 DeepSeek-R1 的官方 API 无法有效使用。
- 在
.env
文件中设置OPENROUTER_API_KEY
。
OPENROUTER_API_KEY=your_openrouter_api_key
- 运行以下命令以启动 Auto-Deep-Research。
COMPLETION_MODEL=openrouter/deepseek/deepseek-r1 auto main
DeepSeek
- 在
.env
文件中设置DEEPSEEK_API_KEY
。
DEEPSEEK_API_KEY=your_deepseek_api_key
- 运行以下命令以启动 Auto-Deep-Research。
COMPLETION_MODEL=deepseek/deepseek-chat auto main
启动 CLI 模式后,您可以看到 AutoAgent 的起始页面
https://github.com/HKUDS/AutoAgent 扫码加入技术交流群,备注「开发语言-城市-昵称」 合作请注明 关注「GitHubStore」公众号项目链接