2026 年 5 月 13 日 13:00 UTC,NVIDIA 发布 RTX AI Garage 更新,介绍 Hermes Agent 在 NVIDIA RTX PC、RTX PRO 工作站和 DGX Spark 上运行的能力。官方把 Hermes 定位为可靠、自我演进、适合本地常驻使用的智能体框架,并重点提到它可配合 Qwen 3.6 等开放权重模型运行。

这条更新说明,本地 AI Agent 正在从“能跑模型”进入“能长期做事”的阶段。Hermes 的特点包括自我沉淀技能、用短生命周期子智能体拆分任务、由 Nous Research 维护和压力测试技能与插件,以及在相同模型下通过编排层提升结果稳定性。NVIDIA 的角色则是把这些工作负载放到 RTX、RTX PRO 和 DGX Spark 这样的本地硬件上加速。

本地运行的价值在哪里

对个人开发者和小团队来说,本地 Agent 最大的吸引力不是完全替代云端模型,而是低延迟、持续运行和更强的数据控制。一个常驻本地的 Agent 可以读本地文件、接入应用、执行多步骤任务,并把反复遇到的问题固化为技能。对于代码整理、资料归档、轻量自动化和私人知识工作,这种形态比每次打开网页问一句更接近真正的助手。

NVIDIA 同时提到 Qwen 3.6 27B 和 35B 模型适合本地智能体,35B 模型约 20GB 显存即可运行,并宣称能在更小体量下接近更大模型效果。无论具体体验如何,这都指向一个趋势:本地 AI 电脑的竞争不只看模型能不能加载,还看多步骤任务、并发工作和常驻推理是否流畅。

适合谁关注

这类方案最适合愿意折腾本地模型、关心数据边界、需要长期自动化流程的开发者和 AI 爱好者。普通办公用户暂时不用急着换硬件,因为本地 Agent 的安装、模型选择、工具权限和稳定性仍有门槛。但如果你已经在用 Ollama、LM Studio 或 llama.cpp,Hermes 加 RTX/DGX Spark 的路线值得观察,它代表个人 AI 电脑正在从“聊天终端”变成“本地执行环境”。

官方参考:NVIDIA