2024年5月22日

Nutanix、企業による生成AIの採用を加速

NVIDIA、Hugging Face、パートナーエコシステムとのコラボレーションを通じ、企業向けのAIファンデーションを構築、オンプレミスのユースケースの価値を短期間で提供

Nutanix Inc.(本社:米国カリフォルニア州、プレジデント兼CEO: Rajiv Ramaswami 以下、Nutanix)は本日、NVIDIA NIM推論マイクロサービスやHugging Faceの大規模言語モデル(LLM)ライブラリとの連携機能など、Nutanix GPT-in-a-Box向けの新機能を発表しました。さらに、AIソリューション/サービスの代表的なパートナー各社を集結させることで、Nutanix Cloud PlatformとGPT-in-a-Boxを用いた生成AI(GenAI)アプリケーションの実行、管理、保護を支援するためのNutanix AIパートナープログラムも発表しました。Nutanix GPT-in-a-Boxは、モデルおよびデータストレージ用のNutanix ObjectsとNutanix Filesとの緊密な連携により、エンタープライズAIの採用を簡素化することを目的としたフルスタックソリューションです。

Nutanixの製品管理担当シニア・バイスプレジデントであるThomas Cornelyは、次のように述べています。「Nutanix GPT-in-a-Boxは発表当初から大きな反響を得ており、AIモデルと推論エンドポイントの導入・管理を簡素化するオンプレミスのソフトウェアソリューションに対する企業のお客様のニーズが高まっています。GenAIにとってエンタープライズ市場は新たな未開の地です。急成長中のパートナーエコシステムと協力できることは大きな喜びであり、今後はプライバシーとコストの管理を維持しつつ、オンプレミスの大規模なGenAIアプリケーションの実行を可能な限りシンプルにしていきます。」

Nutanix GPT-in-a-Box 2.0
今回発表したGPT-in-a-Box 2.0は、NVIDIAアクセラレーテッドコンピューティングとLLMのサポートを拡大しつつ、シンプルな基盤モデル管理に対応し、NVIDIA NIMマイクロサービスおよびHugging FaceのLLMライブラリとの連携機能を提供します。GPT-in-a-Box 2.0には、基盤モデル管理、APIエンドポイント作成、エンドユーザーのアクセスキー管理用の統合型のユーザー・インターフェイスが採用され、Nutanix FilesやNutanix Objects、NVIDIA TensorコアGPUと連携します。

GPT-in-a-Box 2.0は、組み込みGUI、ロールベースアクセス制御、監査機能、ダークサイトのサポートなどのさまざまなメリットを備えており、Nutanixの特長であるシンプルなユーザー体験を実現します。このほか、ポイントアンドクリック型のユーザー・インターフェイスを採用しており、本番グレードAIの開発・導入用のNVIDIA AI Enterpriseソフトウェアプラットフォームの一環として、NVIDIA NIMを導入・構成することで、企業とエッジの環境でGenAIワークロードを容易に導入・実行できます。

YahsatのCOOであるKhalid Al Kaf氏は、次のように述べています。「テクノロジーが人類に貢献するより良い未来を形成しつつ、人類のAIの野望を実現するため、当社は重要なテクノロジーパートナーの1社であるNutanixと提携しています。当社の目標は、未来に乗り遅れないことだけではなく、シンプルでありながら包括的な管理機能を備え、企業データのコントロールを維持してくれるNutanix GPT-in-a-Boxを活用することで、自ら未来を積極的に形成していくことです。」

Hugging Faceとのパートナーシップを通じ、LLMライブラリへの統合型アクセスを提供
NutanixはHugging Faceとのパートナーシップも発表しました。これは、Hugging Faceのライブラリへの統合型アクセスと大規模言語モデル(LLM)の実行機能をNutanixの顧客企業に提供することで、各社のAIジャーニーを加速させるものです。共通の顧客企業はNutanix GPT-in-a-Box 2.0を活用することで、Hugging Faceの検証済みLLMを容易に利用し、効率的に実行できます。

今回のパートナーシップを通じ、NutanixとHugging Faceは、大規模言語モデルの本番導入向けのオープンソースライブラリとして定評あるHugging FaceのText Generation Inferenceとのカスタム連携機能を開発し、Nutanix GPT-in-a-Box 2.0内のHugging Face Hubで利用可能なテキスト生成モデルを実現します。Nutanixのフルサポートに基づき、シームレスなワークフローを通じてHugging Faceの検証済みAI LLMを導入することで、サポート対象となるLLMの数は大幅に拡大します。この結果、両社の検証とサポートに基づき、Hugging FaceのライブラリとLLM向けのワークフローが作成されることで、顧客企業は一貫したモデル推論を一元管理できます。

AI/ML向け非構造化データプラットフォームの強化
Nutanixは、AI/MLなどのアプリケーション向けに非構造化データプラットフォームも強化しており、パフォーマンス、密度、TCOを向上させています。Nutanix ユニファイドストレージ(NUS)は現在、550TB以上の最新の高密度・低コスト・完全NVMeプラットフォームと、最大10GB/秒のシーケンシャル読み取りスループットを、単一ノード(100ギガビットイーサネットポートの回線に迫る速度)でサポートしており、データ読み取りの高速化とGPUリソースのより効率的な利用が実現します。AI/MLアプリケーションをさらに加速させるため、NutanixはNVIDIA GPUDirect Storageのサポートも追加します。さらに、AI/MLワークロードのトレーニングや処理で使用されるデータセットなど、価値が非常に高く、一般的に機密性の高いデータを保護できるよう、Nutanix Data Lensでは、Nutanix Filesのデータだけでなく、Nutanix Objectsにもサイバーレジリエンスの価値を拡大します。そして、Data Lensのフランクフルトを拠点とするポイントオブプレゼンスを新たに確立したことで、欧州連合(EU)の顧客企業の間ではより広範な採用が可能となり、各社独自のコンプライアンスのニーズに対応できます。

Nutanixは主要なサーバーOEM各社と協力しており、AIに最適化されたGPUと密度に最適化されたGPUシステムに広く対応することで、顧客企業に幅広い選択肢をもたらします。これらのAIに最適化されたGPU(NVIDIA L40S/H100/L40/L4 GPU)は現在、Nutanix GPT-in-a-Boxでサポートされています。さらに同社は、Dell、HPE、Lenovoの密度に最適化されたGPUシステムもサポートしており、顧客企業はより少数のシステムの導入でワークロードの需要に対応し、総所有コストの削減に寄与できます。このほか、NVIDIA MGXリファレンスアーキテクチャをベースとしたNX-9151のサポート計画も発表しました。

Nutanix AIパートナープログラム
企業のAI戦略をさらに支援するため、Nutanixは新たなAIパートナープログラムを発表しました。これにより、実環境向けのGenAIソリューションを提供するAIパートナーの大規模なエコシステムを簡単に活用できるようになります。パートナー各社は、Nutanix Cloud PlatformとNutanix GPT-in-a-Boxソリューションを使用し、一般的なAIユースケースを対象としたサードパーティおよび自社開発のGenAIアプリケーションの構築、実行、管理、保護を支援していきます。

このような広範なパートナーエコシステムにより、ヘルスケア、金融サービス、法律・専門サービスなどの各業界では、オペレーション、サイバーセキュリティ、詐欺検知、顧客サポートなどの多岐にわたるユースケースに対応できます。初期パートナーは以下の通りです。Codeium、DataRobot、DKube、Instabase、Lamini、Neural Magic、Robust Intelligence、RunAI、UbiOps。

パートナーにとってのプログラムのメリットは、以下の通りです。

  • Nutanix AI Ready検証:すべてのパートナーは、Nutanix AI Readyの検証を行うことで、Nutanix Cloud Infrastructure、Nutanix AHVハイパーバイザー、Nutanix Kubernetes Platformとの相互運用性を実証できます。
  • フルスタックソリューション:プログラムのパートナーは、Nutanixとパートナーのソリューションのメリットを紹介した個別のソリューション資料を活用できます。さらに、特定のパートナーには、技術ノート、ベストプラクティスガイド、リファレンスアーキテクチャが提供され、共通の顧客企業への実装作業を簡素化できます。
  • プロモーションと市場参入の連携:パートナーは、企業向けのAIユースケースを中心とした、市場参入・需要創出アクティビティのメリットを享受できます。コンテンツ制作、ブログ記事、Webセミナー、ポッドキャスト、各種イベントなど、プロモーションと市場参入の機会が得られることで、主要なユースケースの認知と需要を喚起できます。
  • Nutanix GPT-in-a-Box 2.0は、2024年下半期中の提供開始を予定しています。NVIDIA GPU DirectとNX-9151のサポートは現在開発中です。NUSで発表された追加機能とData Lensは現在顧客企業に提供中です。詳細については、こちらをご覧ください。

賛同コメント:

Hugging FaceのCEO兼共同創設者であるClem Delangue氏は、次のように述べています。「当社とNutanixのパートナーシップにより、LLMのプライベートかつセキュアなコントロールを必要とするより多くの企業がHugging Faceをご利用いただけます。当社のミッションは、あらゆる規模の企業がオープンソースによって独自のAIを構築するよう支援することです。当社とNutanixの協業により、企業はText Generation Inferenceを活用して、オンプレミスのAIアプリケーションを簡単に構築できるようになります。」

IDCのインフラストラクチャー担当リサーチ・バイスプレジデントであるDave Pearson氏は、次のように述べています。「GenAIを活用しようとする企業には、機密性の高い個人データのコントロールを維持する責任が伴います。Nutanixは新たな機能とパートナーシップを提供することで、企業がプライベートのセキュアなAI対応プラットフォームを構築し、企業によるGenAIの採用を促進できるよう、その支援に取り組んでいます。」

(以上)

Nutanix Inc.について
Nutanixは、クラウドソフトウェアのグローバルリーダーであり、クラウド間でアプリケーションやデータを運用するための単一プラットフォームを企業に提供しています。Nutanixの活用により、企業は複雑さの軽減と運用の簡素化を実現し、ビジネスの成果に集中することが可能になります。Nutanixはハイパーコンバージドインフラストラクチャーのパイオニアとしての実績をもとに、一貫したシンプルかつコスト効率の高いハイブリッドマルチクラウド環境の構築を支援し、世界中の企業から高い信頼を獲得しています。詳細については、www.nutanix.com/jp をご覧ください。または@NutanixJapanより、フォローしてください。

*本リリースはスペイン・バルセロナで現地時間2024年5月21日に発表されたプレスリリースの抄訳版です。

Tags: