Hermes AIエージェントがNVIDIA環境で進化
- •Nous ResearchのHermes AgentがGitHubで140,000スターを獲得し、世界で最も利用されるエージェントフレームワークとなった。
- •アリババのQwen 3.6シリーズは、NVIDIA RTXハードウェア上で高性能なローカルAIエージェントの実行を可能にする。
- •NVIDIA DGX Sparkは128GBのユニファイドメモリと1ペタフロップスの性能を提供し、自律的なエージェントワークフローを継続的に実現する。
Nous Researchが開発したオープンソースのエージェントフレームワーク「Hermes Agent」は、OpenRouterの調査によると世界で最も利用されているエージェントであり、リリースから3か月でGitHubのスター数が140,000を突破した。同フレームワークはモデルに依存せず、常時稼働するローカル実行用に設計されており、NVIDIA RTX PC、RTX PROワークステーション、およびNVIDIA DGX Sparkプラットフォーム上でAIエージェントが24時間自律的に動作する。
Hermesの主な特徴は、フィードバックに基づいて能力を洗練させる自己進化スキル、限られたコンテキストウィンドウ内で複雑なタスクを整理するサブエージェント構造、ツールに対する厳格なストレステスト、およびタスクごとの実行を超えた持続的なパフォーマンスを可能にするオーケストレーション層の4点である。
性能面では、アリババが公開したオープンウェイトのLLMであるQwen 3.6シリーズがHermesを補完する。Qwen 3.6 35Bモデルは約20GBのメモリを消費するだけで、前世代の1200億パラメータモデルを超える性能を発揮する。また、27Bの稠密モデルは、4000億パラメータのQwen 3.5 397Bと同等の精度を、わずか16分の1のフットプリントで達成する。これらのモデルはNVIDIAのTensor Coresを活用して推論を加速し、マルチステップタスクの遅延を大幅に削減する。
NVIDIA DGX Sparkは、こうした持続的なエージェントワークフロー専用のコンパクトなハードウェアであり、128GBのユニファイドメモリと1ペタフロップスのAI性能を備える。ユーザーはllama.cpp、LM Studio、Ollamaといったローカルランタイムと組み合わせてHermesを導入できる。また、NVIDIA RTX PRO GPUはQwen 3.6モデルにおいて最大3倍高速なトークン生成を実現するほか、GoogleのGemma 4 26Bおよび31Bモデルについても、NVIDIA Blackwell GPU上でマルチトークン予測ドラフターと組み合わせることで最大3倍の推論高速化が可能となった。