NemoClaw
専用ハードウェアで

自分だけのAIアシスタント。自分だけのGPU。使い放題。

AIエージェント環境とLLM推論バックエンドが丸ごと1台に。APIキーの持ち込み不要、インフラ管理不要、トークン従量課金なし。NVIDIA GB10 Grace Blackwell搭載。

EARLY ACCESS — 枠数限定

早期アクセスを申し込む
NemoClaw WebUI + OpenAI互換API — vLLM on NVIDIA GB10
128 GB
統合メモリ
1 PFLOP
FP4性能
200B+
パラメータ対応
24/365
常時稼働

SparkServeが選ばれる理由

NemoClawのマネージド環境に、専用の推論バックエンド込み

🤖

マネージドNemoClaw / OpenClaw

WebUIでAIエージェントを管理 + OpenAI互換API。NemoClaw、vLLM、OpenShellのセットアップは全部こちらでやります。APIキーの持ち込みも不要。

専用ハードウェア

他のユーザーとの相乗りなし。GB10 Superchipを丸ごと使えるから、レイテンシが安定。

🔗

OpenAI互換API

base_urlを差し替えるだけ。LangChain、LlamaIndex、Cursor、ContinueなどOpenAI SDKベースのツールがそのまま使えます。

🔎

好きなモデルを、好きなサイズで

Qwen、Llama、Mistral、DeepSeekなど、200Bパラメータまでのオープンモデルに対応。モデルの入れ替えもお気軽に。

💰

月額定額、使い放題

トークン従量課金なし。転送料なし。想定外の請求なし。毎月同じ金額で推論し放題。

🔒

データは外に出さない

専用インスタンス内で完結。プロンプトのログ取得や学習利用は一切なし。安心して機密データを扱えます。

ご利用の流れ

申し込みから最短24時間で推論開始

1

申し込み

使いたいモデルと用途を教えてください。こちらで専用環境を用意します。

2

APIキーを受け取る

エンドポイントURLとAPIキーをお渡しします。既存コードのbase_urlを差し替えるだけ。

3

推論スタート

専用GB10で推論し放題。台数を増やしたくなったらいつでもご連絡ください。

# base_urlを差し替えるだけ、他はそのまま
from openai import OpenAI

client = OpenAI(
    base_url="https://api.sparkserve.io/v1",
    api_key="your-api-key"
)

response = client.chat.completions.create(
    model="Qwen/Qwen3.5-27B",
    messages=[{"role": "user", "content": "Hello!"}]
)

対応モデル

主要モデルはすぐ使える。カスタムモデルの持ち込みもOK

Qwen 3.5

27B / 35B-A3B MoE

Llama 4

Scout 17B-A16E / Maverick

DeepSeek-R1

Distill 70B · 推論特化

Mistral Small

24B · 多言語対応

Gemma 3

27B · Google

カスタムモデル

GGUF / HuggingFace

他社との違い

他のOpenClawホスティングはAPIキーを自分で用意。SparkServeは推論バックエンドごと提供します

🔗

OpenAI互換API

専用GB10上でvLLMが稼働し、NemoClawのゲートウェイがOpenAI互換エンドポイントを提供。base_urlを差し替えるだけですぐ使えます。外部APIキーは不要。

🤖

NemoClaw WebUI

ブラウザからAIエージェントを管理。OpenShellサンドボックスでセキュアに運用。エージェントの構築・監視・運用をひとつのダッシュボードで。

# 他社: 自分でAPIキーを用意
export OPENAI_API_KEY=sk-...   # 従量課金

# SparkServe: 全部込み
export OPENAI_API_KEY=spark-...   # 定額 $299/月
export OPENAI_BASE_URL=https://api.sparkserve.io/v1

パフォーマンス

NVIDIA GB10 Grace Blackwellでの実測ベンチマーク

モデル パラメータ スループット 量子化
Qwen 3.5 27B 27B ~56 tok/s NVFP4
Llama 4 Scout 17B-A16E ~50 tok/s NVFP4
DeepSeek-R1 Distill 70B 70B ~30 tok/s NVFP4
Nemotron Nano 30B 30B-A3B MoE ~56 tok/s NVFP4

GB10単体ノード、vLLM + NVFP4量子化で計測。実際のスループットはプロンプト長・同時接続数により変動します。
参考: NVIDIA DGX Spark パフォーマンスブログ

シンプルな料金体系

LLM推論 + AIエージェント環境、オールインワン。トークン課金なし。いつでも解約OK。

Starter
$99/月
個人開発者・サイドプロジェクト向け
参考: 約¥14,800/月
  • 共有GB10インスタンス
  • 30Bパラメータまでのモデル
  • OpenAI互換API
  • 月間10万リクエスト
  • レート制限: 10 req/min
  • コミュニティサポート
利用開始
オンプレ構築
要相談
お持ちのハードウェアにNemoClawを構築
  • DGX Spark等のGPUサーバー対応
  • 独自販路でのハードウェア調達支援
  • NemoClaw + vLLMセットアップ
  • OpenShellサンドボックス設定
  • モデルデプロイ・チューニング
  • Fine-Tuning・蒸留サポート
  • 継続サポートも対応可
お問い合わせ

導入事例

SparkServeを活用した実例

N
Nakamu-Tech Inc.
AIスクラムマスターエージェント

SparkServe Pro上のNemoClawで、スクラムマスターのAIエージェントを24時間稼働させています。スプリント計画、Jiraチケットの管理、Slackへのデイリースタンドアップ投稿、ブロッカーの自動検知まで対応。専用GB10でQwen 3.5 27Bを動かしており、トークン課金なし・コールドスタートなし・安定したレスポンスで運用できています。

よくある質問

なんでこんなに安いの?
ハードウェアを全台自社保有しているので、クラウドプロバイダの中間マージンやデータセンターのリース料がかかりません。NVIDIA GB10は消費電力わずか200Wで、1台あたりの電気代は月$20以下。大きな営業組織も持っていないので、浮いたコストをそのまま価格に反映しています。
他のGPUクラウドと比べてどう?
RunPodでA100 80GBを専有すると約$2/時(月$1,440)、しかもvLLMのセットアップやDockerの管理は自分でやる必要があります。Together AIやGroqはトークン従量課金で青天井。SparkServe Proなら128GB統合メモリのフルマネージドAPI+NemoClawが月額$299の定額。環境構築もインフラ運用もこちらにお任せください。
安すぎて逆に不安なんだけど…
Starterプランは少人数でGB10を共有しており、レート制限(10 req/min)があります。Proプランは1台丸ごと専有なので、他のユーザーの影響を受けません。24/7安定したパフォーマンスで使えます。
GB10ってA100やH100と比べてどうなの?
GB10はFP4で1 PFLOPの演算性能に加え、NVLink-C2C接続の128GB統合メモリを搭載しています。生のスループットではH100には及びませんが、統合メモリのおかげで大きなモデルを量子化なしでそのまま載せられるのが強み。200B以下の推論用途ならコスパは抜群です。
モデルの入れ替えはできる?
はい。ご連絡いただければ、通常数時間以内にモデルを切り替えます。Early Access期間中はモデル変更の追加料金もかかりません。
稼働率はどのくらい?
Early Access期間中は稼働率99%を目標にしています。メンテナンスは事前にお知らせしたうえで実施します。Enterpriseプランでは99.9%のSLAをお付けします。
StarterとProは何が違う?
Starterは共有環境で、レート制限あり(10 req/min、月10万リクエスト、30Bまで)。Proは専用GB10を1台丸ごと使えて、リクエスト無制限、100Bまでのモデル対応、カスタムモデルのデプロイ、NemoClaw/OpenClawも利用可能です。
NemoClaw / OpenClawって何?
OpenClawはローカルで動く常駐型AIエージェントのオープンソースフレームワーク。NemoClawはNVIDIAが開発したエンタープライズ版で、セキュリティのサンドボックスやガードレールが組み込まれています。ProプランではWebUIでエージェントを管理しつつ、同じスタック上のOpenAI互換APIもそのまま使えます。1台の専用マシンで推論もエージェントも完結します。

早期アクセスに申し込む

用途を教えていただければ、こちらで環境を用意します