DigitalOceanは、推論とエージェント時代向けに構築されたエンドツーエンドプラットフォーム「AI-Native Cloud」を発表しました。インフラストラクチャ、コアクラウド、推論、データ、マネージドエージェントを備えており、Higgsfield AI、Hippocratic AI、ISMG、Bright Data、LawVoでの本番ワークロードをすでにサポートしています。
AI-Native構築者は不完全な選択肢に挟まれています。エンタープライズクラウド時代向けの複雑なサービスと予測不可能なコストを備えたハイパースケーラーと、ベアメタルとトークンをレンタルする新しいGPUクラウドですが、チームが周囲のプラットフォーム全体を自分たちで組み立てる必要があります。どちらのアプローチも、AI企業がより迅速に移動し、コストを制御し、本番AIを効率的にスケールする必要がある場合に複雑性を追加します。DigitalOceanのAI-Native Cloudは本番AI向けに特別に構築されており、完全なAIアプリケーションスタックをAIエコシステムの最高の機能と1つの開発者ファーストプラットフォームに統合します。
AIワークロードは前時代のクラウドを超えています
DigitalOcean AI-Native Cloudは、本番AIを再定義する4つのシフトに対応するように設計されています。推論がトレーニングよりも優位性が高まること、推論モデルがデフォルトになること、自律エージェントのスケーリング、そしてオープンソースモデルがコストのほんの一部で品質パリティに達することです。
これらのシフトはインフラストラクチャが実行する必要のあることを変えます。典型的なエージェントタスクは数百のモデルコール、数百のデータベースクエリ、および100万以上のトークンを消費する可能性があります。そのワークロードの50~90%はGPUではなくCPUで実行され、オーケストレーション、サンドボックス、状態、ツール呼び出しが必要です。エージェントシステムは同等の従来のワークロードと比較して約4倍多くのCPU容量を消費し、人間のユーザーより15倍多くのトークンを消費します。
DigitalOceanの回答:インフラストラクチャからエージェントまでの5層スタック
5つのレイヤー、1つの統合プラットフォーム。ビルダーが異なるサービスとインフラストラクチャを組み合わせることに時間を費やさずにAIに集中できるようにします:
- マネージドエージェント:オープンエージェントハーネスサポート、セキュアサンドボックス、耐久性のある状態管理、エージェントオーケストレーション。
- データと学習:pgvector搭載PostgreSQL、Valkey、ナレッジベース、リアルタイムデータ機能。
- 推論エンジン:サーバーレスおよび専用エンドポイント、バッチ処理、インテリジェントモデルルーター、拡大するモデルカタログ、独自モデルの持ち込みサポート。カスタムvLLMフォーク、チューニングされたKV-キャッシュ、投機的デコーディング、GPUアウェアスケジューリングを備えています。
- コアクラウド:Kubernetes(DOKS)、CPU/GPUドロップレット、VPCネットワーキング、S3互換オブジェクト・ブロック・ファイルストレージ。
- インフラストラクチャ:AI用に特別に構築されたCPU/GPU容量を備えた20のグローバルデータセンター。所有するNVIDIA H100、H200、HGX B300およびAMD Instinct MI300X、MI350X、MI355X GPU。400G RoCE RDMAファブリックによってサポートされており、640,000を超える顧客向けに15年間クラウドを運営してきた実績があります。
フロンティアモデルをオプションで提供するオープンソーススタック。AIの最高を提供します
DigitalOcean AI-Native Cloudは、すべてのレイヤーでオープン標準とオープンソーステクノロジーをサポートしています。ロックインはAIビルダーにとって最大の負担だからです。エージェントハーネス向けのOpenCodeとLangGraph。データ向けのPostgreSQL、MySQL、pgvector、Qdrant。推論向けのDeepSeek、Llama、Qwen、NVIDIA Nemotron 3 Nano Omni。ClaudeやGPTなどのフロンティア非公開モデル。クラウドプリミティブレイヤーでのKubernetes、Cilium、S3互換ストレージ。
顧客は単一のアプリケーションでオープンモデルと非公開モデルを混在させ、それらの間で動的にルーティングでき、より良いものが出荷されたときにスタックを書き直すことなく切り替えることができます。
「オープンモデルはビルダーにAIアプリケーションの構築方法に関するより多くの選択肢を提供しています」とNVIDIAの生成AI担当ジェネラルバイスプレジデントKari Briskiは述べています。「AI企業は継続的に実行でき、時間の経過とともに改善できるエージェントが必要です。DigitalOceanとのパートナーシップにより、NVIDIAのNemotronモデルをオープンでフルスタックのプラットフォームに提供し、開発者が現実世界のAIアプリケーションをより簡単に構築、デプロイ、スケールするためのインフラストラクチャを提供します。」
顧客がDigitalOcean AI-Native Cloudでパフォーマンスとコストを最適化
AIチームはこれらのプラットフォーム利得が本番成果に転換されるのを見ています。Information Security Media Group(ISMG)はDigitalOceanに統合することでインフラストラクチャコストを5倍以上削減しました。異なるワークロード、異なるリスク、同じプラットフォーム。Bright Dataは8か月で4,000ドロップレットから75,000 vCPUにスケールし、1か月で765ペタバイトのエグレスを移動しました。Higgsfield AIは、消費者製品を強化するマルチモデルクリエイティブワークフローをDigitalOceanの統合スタック上で実行しています:
「Higgsfield では、AI生成コンテンツが日常的なクリエイティブ作業の一部となる世界を構築しています。これにはGPUやモデルへのアクセス以上のものが必要です。高速反復、マルチモデルワークフロー、本番スケールをサポートできるAI-Nativeプラットフォームが必要です」とHighgsfield AI のCEOAlex Mashrabovは説明しました。「DigitalOceanの統合クラウドは、迅速に対応しながら、ユーザーのクリエイティブ体験に焦点を当てるために必要なインフラストラクチャ、推論、シンプルさを提供します。」
AI-Native Cloudはスタック全体で15以上の新しい一般公開およびプレビューローンチとともに到着します。
ハイライトは以下の通りです:
- 推論ルーター:開発者はモデルプールを定義し、自然言語でタスクと優先度を説明してモデルにマップし、コストと遅延のために各リクエストを最適化します。DigitalOceanの目的に構築されたMoE(Mixture of Expert)ルーターモデルに基づきます。LawVoなどの初期顧客(法律技術プラットフォーム)では、ゼロコード変更で切り替え後、推論コストが42%削減されながら、週あたり500M以上のトークンに対して130以上のAIエージェントを実行しています。
- 独自モデルの持ち込みと専用およびバッチ推論:同じOpenAI互換APIを使用して、サーバーレス、専用、またはバッチ推論でカスタムまたは微調整されたモデルを実行します。Dedicated Inferencerは予約済みのGPU時間あたりの価格を提供します。Batch Infer enceは24時間の完了ウィンドウでコストを最大50%削減します。
- 拡張モデルとサービス:70以上のオープンソースとフロンティアモデル。初日アクセス。集中型モデルカタログを通じて発見可能で、明確な価格、パフォーマンス、ハードウェアの洞察があります。新しい追加には、NVIDIA Nemotron 3 Nano Omni(DigitalOcean初)、DeepSeek V3.2、Llama 3.3 70B、Qwen 3.5、MiniMax M2が含まれます。新しい評価とガードレールサービスが本番安全性と品質モニタリングを補完します。
- ナレッジベース:MCPツールとして公開された完全なRAGパイプライン。RAG-Native SaaS顧客はプロトタイプから本番へ9日間で移行し、回答精度が71%から94%に跳躍しました。
- マネージドWeaviate:本番AI ワークロード向けの完全マネージドベクターデータベース。ナレッジベースと推論エンジンにネイティブに統合され、スケールでWeaviateを自己ホストする運用上のオーバーヘッドを排除します。
1兆トークンで測定される市場
2030年までに、世界は1日あたり500兆以上の推論トークンを処理することが予測されており、現在の約50兆から5年以内に10倍増加します。DigitalOceanはAI-Native Cloudで3つのワークロードパターンをターゲットにしています。AI機能を追加するクラウドネイティブSaaS。トークンを消費するあらゆるインタラクションを持つAI-Nativeプロダクト。長いループで自律的に実行されるエージェントネイティブシステム。
「AIは思考から行動へ移行しており、それはビルダーがクラウドから必要なものを変えています。AI-Native企業は単一のモデルコールを行う単純なアプリケーションを構築していません。インフラストラクチャ、推論、データ、オーケストレーション、エージェント が協調して動作する必要のある分散型でステートフルな複数エージェントシステムを構築しています」とDigitalOceanのCEOPaddy Srinivasanは述べています。「DigitalOcean AI-Native Cloudはこれらのレイヤーを統合プラットフォーム上で統合し、チームがより迅速に移動でき、本番AIをスケールでき、インフラストラクチャの組み合わせに代わり、自分たちのプロダクトに焦点を当てることができます。」
翻訳元: https://www.helpnetsecurity.com/2026/04/29/digitalocean-ai-native-cloud/