768 Views
July 19, 25
スライド概要
Claude CodeやGemini CLIの進化により、テキスト中心のAI開発から、動画・音声・画像を統合するマルチモーダルAI開発へと次元が変わりました。
しかし、AIポッドキャスト自動生成や動画コンテンツ制作アプリなど、次世代AIアプリケーション開発では従来のインフラでは処理能力の限界に直面します。
GitHub ActionsやVPS環境での挫折体験から始まり、FPT AI FactoryのNVIDIA GPUクラスターとハイブリッドAI環境による解決策を実演します。
実際にマルチモーダルAIアプリを開発のデモをご紹介し、エンタープライズ向け次世代AI開発プラットフォームの価値を提案します。
https://event.shoeisha.jp/devsumi/20250717/session/5925
FPT ジャパン エグゼクティブエバンジェリスト 独立行政法人 国立印刷局 デジタル統括アドバイザー兼最高情報セキュリティアドバイザー Microsoft で C#、.NET、Visual Studio、Windows、iOS、Android、Microsoft Azure 等の開発者向け技術啓発活動を担当後、Dell、Accenture、Elastic、VMware を経て現職まで一貫して同様の活動を継続。現職では NVIDIA AI GPU クラウドサービス、各パブリッククラウドとの AI 関連での協業、マーケティングを担当。政府の仕事は、内閣官房 政府 CIO 補佐官、 デジタル庁 PM を経て、現職を兼務。 AI 駆動開発勉強会主催。
ハイブリッド AI 開発プラットフォーム︓ FPT AI Factory - Claude Code ・ Gemini CLI とテキスト・画像・ 動画・⾳声を統合する次世代アプリ開発戦略 – 鈴⽊ 章太郎 Executive Evangelist, FPT Data & AI Integration FPT Japan Holdings
鈴⽊ 章太郎 X (Twitter) ︓ @shosuz https︓//www.docswell.com/user/shosuz FPT ジャパン FPT データ& AI インテグレーション エグゼクティブエバンジェリスト 独⽴⾏政法⼈ 国⽴印刷局 デジタル統括アドバイザー兼最⾼情報セキュリティアドバイザー 略歴︓ AI 駆動開発勉強会主催。Microsoft エバンジェリスト時代から現職 まで⼀貫して開発者向けに最新技術を啓発。GPU クラウド技術訴求、 AI 駆動開発推進。 政府の仕事は、内閣官房 政府 CIO 補佐官、 デジタル庁 PM を経て、現職を兼務。 2 / 12
アジェンダ 1 AI 開発の新次元 - マルチモーダル統合 2 Claude Code & Gemini CLI の新たな可能性 3 次世代 AI アプリケーションとは︖ 4 従来インフラでの挫折体験 5 マルチモーダル処理の課題 6 FPT AI Factory ハイブリッド AI 環境 7 技術アーキテクチャと統合処理 8 実演デモ︓AI ポッドキャスト⾃動⽣成アプリ 9 処理能⼒⽐較︓従来環境 vs FPT AI Factory 10 マルチモーダル AI 市場と ROI 11 ハイブリッド AI 開発の未来 13 リファレンス・参考資料
AI開発の新次元 -マルチモーダル統合 AI による開発がテキスト中⼼から、動画・⾳声・画像を統合する時代へ 従来の AI 開発 次世代マルチモーダル開発 テキスト⽣成中⼼ 動画・⾳声・画像統合 反復タスクの⾃動化、コード⽣成の加速 反復タスクの⾃動化、コード⽣成の加速 コード⽣成・修正 リッチコンテンツ創造 数万⾏コードの全体把握と最適化 数万⾏コードの全体把握と最適化 🤖 単⼀ AI 処理 複数 AI による協調作業が標準に 🔄 ハイブリッド AI 協調 複数 AI による協調作業が標準に 開発効率化 新市場・新価値創出 ⾃然⾔語から複雑システムを構築 ⾃然⾔語から複雑システムを構築 "AI 開発の価値は、統合するメディアの豊富さで決まる"
AI 開発の新次元 - マルチモーダル統合 AI による開発がテキスト中⼼から 、動画‧⾳声‧画像を統合する時代へ 従来の AI 開発 次世代マルチモーダル開発 🔤 テキスト⽣成中⼼ ⚡ コード⽣成‧修正 🤖 単⼀ AI 処理 💻 開発効率化 → 🎬 → → 🎨 リッチコンテンツ創造 🔄 ハイブリッド AI 協調 → 🚀 新市場‧新価値創出 動画‧⾳声‧画像統合 “AI 開発の価値は、統合するメディアの豊富さで決まる"
Claude Code & Gemini CLI の新たな可能性 単なるコード⽣成を超えた、マルチモーダル統合開発⽀援 Claude Code の強み: Gemini CLI の強み: 🌟 1M トークン⼤容量処理 🧠 最⼤200K トークン処理 🎨 ⾼品質コード⽣成分析 ⚡ GitHub 統合に特化 🖼 マルチモーダル⼊出⼒ 🆓 無料枠︓⽇1000リクエスト 🔧 レビュー/改善効率化 📊 SWE-bench 72.7%⾼性能 共通の進化 : 🔍 Google 検索連携組込み 🔓 オープンソース (Apache 2.0) テキスト中⼼ マルチメディア統合開発⽀援
次世代 AI アプリケーションとは︖ マルチモーダル統合が可能にする新しいアプリ領域 🎙 AI ポッドキャスト⾃動⽣成 🎬 動画コンテンツ制作アプリ 🖼 リアルタイム画像処理 📱 パーソナライズドメディア テキスト → ⾳声対話 + カバー画像 + Web ページ ライブ配信 + AI ⽣成コンテンツ + インタラクション 従来 テキスト中⼼のアプリ 脚本→ 動画+ ⾳声+ エフェクト + ⾃動編集 ユーザー特化 + ⾃動カスタマイズ + 配信最適化 次世代 マルチメディア統合アプリ
マルチモーダル処理の課題 AI 時代に必要な計算リソース 技術的要件: 🔥GPU 並列処理: 動画‧⾳声‧画像の同時⽣成 💾 ⼤容量メモリ: 1M トークン + マルチメディア 🔄 統合環境: 複数 AI モデルの連携 📈 スケーラビリティ: 需要に応じたリソース調整 ⚠ GPU 不⾜危機: パブリッククラウドで A100/H100 /H200 が枯渇状態 処理時間の現実: 6時間 従来環境 従来環境 15分 必要環境 必要環境 処理時間の⽐率(24倍の差) パブリッククラウドの課題: AWS/GCP H100 待ち時間: Azure A100 時間単価: 8 GPU 構成の⽉額: 3〜6ヶ⽉ 約$4.1/時間 約300万円 ⼆重の課題: GPU 不⾜と⾼額コストが、マルチモーダル AI 開発の最⼤の障壁に
FPT AI Factory ハイブリッド AI 環境 マルチモーダル開発を実現する統合プラットフォーム 核⼼技術 提供価値 H100/H200 🚀 NVIDIA 最新 GPU クラスター ⚡ 処理時間 6時間→ 15分 Model Hub 🎯 AI 画像‧動画‧⾳声⽣成統合 💰 コスト 予測可能な料⾦体系 Code/Gemini CLI 統合 🔧 Claude シームレスな開発体験 🌏 ⽇本拠点 低レイテンシー + 国内サポート 🎨 品質 エンタープライズレベル 🔄 拡張性 需要に応じた柔軟性 キーメッセージ︓単なる⾼速化でなく 、新しい開発次元の実現 従来 開発 FPT AI Factory 新次元 開発
FPT AI Factory アーキテクチャが NVIDIA に認定 FPT AI Factory サービスは、ベトナムと⽇本の複数の地域で展開されています。 特に、FPT AI Factoryのアーキテクチャは NVIDIA のグローバル標準に準拠し、NVIDIA によって実装および検証されています。 各クラスターの計算能⼒は最⼤69PFLOPS。 100 以上のフレームワーク、事前トレーニング済みモデル、ライブラリを提供する NVIDIA AI Enterprise ソフトウェア プラットフォームとの統合。 • ⼤規模要件に対応するスーパーコンピューティングクラスター。 数千台の NVIDIA Hopper GPU (H200)。 • 超⾼速ネットワークには、⾮ブロッキング InfiniBand ファブリックと、組 み込みハードウェア アクセラレーション⽤のデータ処理ユニット (DPU) が含まれます。 2つの新しい地域をリリース (合計7ゾーン、3地域) NVIDIA AI企業 NVIDIA NGC NVIDIA 推論マイクロサービス NVIDIA NeMo NVIDIA ベースコマンドマネージャー ⽇本 ネットワーキング ペタビット、ノンブロッキング NVIDIA Infiniband ファブ リック ノード1 400Gbps インフィニバンド NVIDIA HGX H200 SXM*8 GP グ ラフ ィッ ク プ ロ セッ サ グローバルネットワーキング パートナー JPN-01 GPUクラウド あな た グ ラフ ィッ ク プ ロセ ッサ グ ラフ ィッ ク プ ロセ ッサ 400Gbps I nfi niband グ ラフ ィッ ク プ ロ セッ サ グ ラフ ィッ ク プ ロ セッ サ グ ラフ ィッ ク プ ロ セッ サ グ ラフ ィッ ク プ ロセ ッサ NVIDIA HGX H200 SXM*8 400Gbps I nfi niband 400Gbps インフィニバンド 400Gbps インフィニバンド 400Gbps I nfi niband 400Gbps I nfi niband 400Gbps I nfi niband 400Gbps I nfi niband 400Gbps I nfi niband 400Gbps I nfi niband 900 GB/秒のNVSwitch GPUから GPUへ グ ラフ ィッ ク プ ロセ ッサ G PU グ ラフ ィッ ク プ ロ セッ グ ラフ ィッ ク プ ロ セッ グ ラフ ィッ ク プ ロ セッ サ サ サ G PU G PU G PU 900 GB/秒のNVSwitch GPUから G PUへ ベトナム - ハノイ ベトナム - ホーチミン 波⻑多重 多重 HNI-02 GPUクラウド HCM03 冗⻑性 負荷分散 HCM-01 ノードN 400Gbps インフィニバンド HCM-02 災害復旧 ストレージ同期 HNI-01 HNI-03 。 。 DPU 。 。 。 FPTクラウドサービス GPUサーバー ⾼性能 ストレージ 雲 サーバ コンテナサー ビス 監視サービス AI開発 カタログ 安全 サービス サイバーセキュリ ティサービス 。 DPU
FPT AI FACTORY ベトナム2地域と⽇本1地域 AI/ML開発エコシステム NVIDIA認定システムアーキテクチャ AI製品 FPT AIアプリケーション インテリジェントドキュメント 処理 デジタル顧客 オンボーディング AI メンター 市場 AI コンタクトセンター 強化 会話型 AI と AI マーケットプレイス AI エージェント AIプラットフ ォーム メモリ ガードレール ツール FPT AIスタジオ AI ノートブック クラウド インフ ラストラクチャ 。 &プラット フォーム 計画 モデルハブ モデルの微調整 データベースプラットフォーム ベクターデータベース 微調整されたLLMモデル FPT AI推論 AI のためのデータ処理 モデルの事前 トレーニング Model as-aService モデルサービング GPU 仮想マシン マネージド GPU クラスター NVIDIA NeMo AI & Data Science Development Tools NVIDIA Inference Microservices Cloud Native Management & Orchestration FPT AI インフラストラクチャ GPU コンテナ NVIDIA NGC AI Solution Workflows, Frameworks & Pretrained models FPT AIエージェント エージェントスタジオ NVIDIA AI Enterprise メタルクラウド ファイルストレージ NVIDIA Base Command Manager 物理インフラ ストラクチャ Infrastructure Optimization NVIDIA H100/H200 ハイエンドネットワーク ハイエンドCPU ⾼性能ストレージ お客様へのサービス Infrastructure Management 管理者
TOP500 スーパーコンピュータランキングで⽇本第1位 FPT AI Factory は、2025年6⽉版 TOP500 において⽇本で最も優れた商⽤クラウド プロバイダーとして認定されました。※⽇本第1位、世界36位 146,304コアを搭載し、49.85ペタフロップスを達成。これは AI 及びクラウドコンピューティング における FPT の技術⼒を証明しており、国際的な AI 基盤としての地位を確⽴しました。 TOP 500ランキングの重要性 圧倒的な性能 TOP500 は世界中のスーパーコンピュータの性能を評価する権威ある ランキングで、LINPACK ベンチマークを基に計算能⼒を測定します。 AI Factory は146,304コアを搭載し、49.85 ペタフロップスの処理能⼒を誇ります。 このランキングは、各国の政府や研究機関、企業にとって、ハードウェア 性能やシステム設計の国際的な基準を⽰す重要な指標となっています。 この数値は、⼤規模なデータ処理や複雑な AI アルゴリズムの実⾏を可能にし、企業が競争⼒を 維持するための強⼒なツールとなります。 特に、デジタル変⾰を進める企業にとって、FPT の 技術は⽋かせないものとなるでしょう。 「TOP500」ランキングで第36位および第38位に選出 (出典︓TOP500.org)
技術アーキテクチャと統合処理 マルチモーダル統合処理の仕組み アーキテクチャ図: 特⻑: Claude Code/Gemini CLI 並列処理: 複数メディアの同時⽣成 FPT AI Factory 統合管理: ⼀元的なワークフロー ⾼速処理: GPU アクセラレーション 品質保証: エンタープライズ基準 オーケストレーション 画像⽣成 ⾳声⽣成 動画⽣成 (NVIDIA GPU) (AI Model) (並列処理) 統合アプリケーション出⼒ ポイント: • FPT AI Factory は、マルチモーダル⽣成の ための各種 AI モデルを⼀元管理 • 独⾃のオーケストレーションエンジンにより、複数 の⽣成プロセスを並列かつシームレスに実⾏
実演デモ︓AI ポッドキャスト⾃動⽣成アプリ マルチモーダル統合の実例 アプリ仕様: 技術スタック: 📝 ⼊⼒: トピック + 話者設定 Claude Code: アプリ設計‧コード⽣成 🎯 出⼒: • ⾳声ポッドキャスト(2名の対話)カバー画像 • 紹介動画 • Web 配信ページ FPT AI Factory 処理 画像 複数話者の⾃然な対話 画像⽣成: ブランディング画像 トピック⼊⼒ ⾳声 ⾳声⽣成: 動画 動画⽣成: プロモーション動画 Web 開発: 統合プラットフォーム デモの価値: リアルタイムでコンテンツが⽣成される様⼦を実演
Claude Code Max × Cursor Pro による⾃動デプロイと成果物⽣成 Cursor Pro の統合環境から マルチモーダルアプリを超速開発 ■ デモシナリオ概要 ■ • Cursor Pro AI Chat で Claude Code Max を操作 1 • 内蔵ターミナルから デプロイを⼀元管理 • コード⽣成から デプロイまでを同⼀環境で完結 2 • 従来6時間 → 15分でマルチモーダル処理完了 3 4 実装ステップ Cursor Pro AI Chat でプロンプト設計 Claude Code Max に設定ファイル⾃動⽣成を依頼 全設定ファイルを内部⽣成 シンプルなNode.js + Express 実装 内蔵ターミナルでデプロイ実⾏ FPT AI Factory 接続 マルチモーダルアプリ⾃動起動 Cursor 内蔵ターミナルから ワークフロー実⾏ Cursor Pro ⼀元管理: AI Chat ・ エディタ ・ ターミナルをシームレスに統合し、Claude Code Max の能⼒を最⼤化 ■ 処理フロー図 Cursor Pro (AI Chat) Claude Code Max Cursor Pro (ターミナル) FPT AI Factory プロンプト ⾃動⽣成 デプロイ GPU 実⾏ 実⾏結果 (15分) ⾳声 画像 動画
Gemini CLI × Cursor Pro による⾃動デプロイと成果物⽣成 Cursor Pro 環境でのマルチモーダルアプリ超速開発フロー ■ デモシナリオ概要 ■ 処理フロー 1. Cursor Pro AI Chat でプロンプト最適化&実⾏ 2. Gemini CLI (1Mトークン)で⼀括⽣成 3. 内蔵ターミナルから npm start レベルのシンプルなデプロイ → Cursor Pro (内蔵ターミナル) Gemini CLI CLI 実⾏ ■ 実装ステップ → (1Mトークン) FPT AI Factory (GPU コンテナ) ファイル⽣成 実⾏結果 (15分で完成) 1. Cursor Pro AI Chat でプロンプト作成 2. Gemini CLI (1Mトークン)で設定⾃動⽣成 3. 内蔵ターミナルから FPT AI Factory へデプロイ ⾳声 画像 動画 ⾼品質TTS ⾼解像度 プロ品質 ■ Cursor Pro × Gemini CLI 連携の威⼒ 🚀 IDE 内完結の⾼速開発 プロンプト→実⾏まで Cursor Pro 内 💰 無料枠で開発効率化 1000リクエスト/⽇を活⽤ 🔍 AI Chat × ターミナル連携 プロンプト最適化と即時実⾏ 🔄 マルチモーダル⾃動処理 ⾳声‧画像‧動画を⼀括⽣成 Cursor Pro × Gemini CLI × FPT AI Factory = 開発者体験を最⼤化した超速マルチモーダル開発
🚀 デモ実⾏の前提条件 Claude Opus 4 (claude-opus-4-20250514) または Gemini CLI にアクセス可能 Cursor Pro 環境 (AI Chat ‧ 内蔵ターミナル) 準備完了 FPT AI Factory アカウント (H100/H200 GPU コンテナ選択可能) LLM︓ Claude Opus 4 / Gemini 2.5 Pro (1M トークン対応) 推奨アーキテクチャフロー Cursor Pro Node.js + Express 実装 (開発環境) (マルチモーダル処理) Claude Code Container (コード⽣成) アーティファクト 出⼒ (15分)
📋 実⾏⼿順概要 ① ② ③ ④ ⑤ Cursor Pro 内蔵 ターミナル/AI Chat で指⽰ Claude Opus 4/Gemini 2.5 Pro で設定ファイル ⾃動⽣成 FPT AI Factory へ デプロイ GPU H200 でローカル モデル実⾏ ⾳声‧画像‧動画 を⾃動⽣成 H100/H200対応 15分以内で完了 2Mトークン対応 マルチモーダル処理の実⾏フローポイント ● Claude Opus 4/Gemini 2.5 Pro による ● FPT AI Factory H200 GPU 活⽤ (Stable Diffusion/Coqui TTS/AnimateDiff) 統合 ● GPU ⾼速処理でマルチモーダル AI 処理を効率化 ● パブリッククラウド GPU 待ち時間3-6ヶ⽉ → 即座実⾏(H200 活⽤) 1M トークン処理 ⾼速 GPU 処理 マルチモーダル統合 GPU H200 活⽤ コンテナ最適化
シナリオ1︓Claude Opus 4 × Cursor Pro 1 Cursor Pro AI Chat で Claude Opus 4 (claude-opus-4-20250514) へプロンプト: "マルチモーダル⽣成アプリをシンプルな Node.js + Express で 構築したい。以下のファイルを⾃動⽣成してく ださい︓ server.js(Express + CORS 設定) index.html(マルチモーダル統合 UI)package.json(依存関係) 利⽤モデル︓⾳声⽣成: Coqui TTS/XTTS、画像⽣成: H200 + Stable Diffusion、 動画⽣成: ModelScope/AnimateDiff(短時間で実装完了)" 2 内蔵ターミナルでセットアップと実⾏: シンプル実装 npm install npm start 実⾏ 結果 ⾼品質⾳声 ⾼解像度画像 動画⽣成
シナリオ2︓Gemini CLI × Cursor Pro シンプルな Node.js + Express によるマルチモーダルアプリ構築 1 Cursor Pro 内蔵ターミナルで Gemini CLI 実⾏ 2 デプロイと実⾏ # Gemini CLIインストール npm install -g @google/gemini-cli cd multimodalapp npm install npm start # 環境変数設定 export GEMINI_API_KEY="..." # ブラウザで確認 open http://localhost:3000 # Geminiに指⽰ gemini "Node.js + Express でマルチモーダル統合 API を作成。 画像⽣成、⾳声⽣成、テキスト処理を統合したシンプルなサーバーを実装して、 CORS 問題を回避する設計にすること。3ファイル構成で実装。" シンプルな実装 • • 実⾏ 結果 ⾼品質⾳声 ⾼解像度画像 複雑な設定なしで、単⼀サーバーにマルチ モーダル処理を統合 CORSエラーなし、認証管理も簡単 動画⽣成
🔧 技術的な実現⽅法 シンプルな3ファイル構成 - HTML, JS, サーバーファイル Node.js + Express 実装 CORS 問題を解決した API 設計 Coqui TTS/XTTS、Stable Diffusion、 ModelScope/AnimateDiff マルチモーダル統合を1サーバーで実現 シンプルなデプロイフロー npm start で即時起動、環境変数で設定 server.js (Express): const express = require('express'); const cors = require('cors'); require('dotenv').config(); const app = express(); const port = process.env.PORT || 3000; // CORS 問題を完全解決 実装の簡素化と安定性向上 • 複雑なワークフローエンジンは不要 • 単⼀ Node.js サーバーで統合することで、CORS 問題を解決し、 デプロイ時間を15分以内に短縮 • API キー管理も .env ファイルで簡素化
マルチモーダル AI 市場と ROI 新しい市場機会と投資対効果 市場機会 ROI 分析 📈動画⽣成市場 💰従来 🎯AI コンテンツ 💡FPT AI Factory ⏰開発期間 ⚡時間価値 💼参⼊障壁 🏆品質 年間43%成⻑ エンタープライズ需要急増 6ヶ⽉→ 2週間 ⼤幅に低下 専⾨チーム雇⽤(⽉200万円) ⽉額 XX 万円 開発期間90%短縮 エンタープライズレベル保証 投資対効果: ⽉1⽇の時短 = 年間12⽇ = 開発者1⼈の⽉給2か⽉分︖
ハイブリッド AI 開発の未来 次世代開発環境の展望 未来の開発者像: 新しいアプリカテゴリ: マルチモーダル AI アーキテクト 🎬 AI ファーストコンテンツ 🎨 AI ファーストコンテンツクリエイター 🔄 リアルタイムメディア処理 ⚡ リアルタイムメディアプロデューサー 👤 パーソナライズドマルチメディア 👨💻 🤝 ハイブリッドヒューマン – AI 協調 FPT AI Factory が実現する価値: 今⽇: Claude Code, 明⽇: Gemini CLI, 来⽉: 新 AI… すべての時代で最⾼の開発基盤を提供
リファレンス ・ 参考資料 • 技術‧ 製品参考 URL : 🤖 Claude Code : https://docs.anthropic.com/claude-code ⚙ GitHub Actions : https://docs.github.com/actions 🏭 FPT AI Factory : https://fptcloud.com/en/product/fpt-ai-factory/ 🔗 Gemini CLI : https://github.com/google-gemini/gemini-cli 💎 NVIDIA H200 : https://www.nvidia.com/en-us/data-center/h200/?ncid=no-ncid/ 📊 FPT AI Factory : https://fptcloud.com/en/product/fpt-ai-factory/
Azure OpenAI Service Dev Day 2025 by Azure AI Developers Community (JP) AI駆 動 登壇 開発 もあ 勉強 りま 会か す! らの !
Azure OpenAI Dev Day (7/18) https://aoai-devday.com/ 協⼒︓AI 駆動開発勉強会 Microsoft Corporation の⽜尾剛さん(元 Microsoft エバ チーム同僚、現在は Azure Functions チームの SDE)と⼀緒 に、ギターセッションを演ります @ Vibe Coding Corner︕w https://aoai-devday.com/#breakout-track-3
VIBE CODING CATFE TOKYO by RevenueCat 世界中で注⽬の AI 駆動開発スタイル「バイブコーディング」の最前線を東京で体感 六本⽊ヒルズカフェを7⽉29⽇(⽕)〜 8⽉1⽇(⾦)で貸切︕︕ 有識者セッション ✖ AI 駆動開発メンバー討論 ✖ 毎晩 DJ / JAZZ ライブ等々 VIBE CODING CATFE TOKYO 有識者セッション 7⽉31⽇の夜には 「AI 駆動開発の未来」を 熱く語るパネルディスカッション も開催します︕︕
Google Cloud Next Tokyo 2025(8/5-6) https://www.googlecloudevents.com/next-tokyo/sessions?session_id=3123576
AI 駆動開発 Conference Autumn 準備中︕ 8⽉参加登録開始 予定︕
ご清聴ありがとうございました︕
Appendix
FPT AI FACTORY FPT Smart Cloud, 2025
⽬次 1 2 3 FPT AI FACTORY JAPAN 概要 パフォーマンスベンチマーク結果 デモと質疑応答
アーキテクチャ概要 – InfiniBand ファブリック
パフォーマンスベンチマーク と検証結果
ベンチマーク基準 ベンチマークの結果は、システムが期待されるパフォーマンスを満たしていることを⽰しています。 システムが期待通りに動作していることを⽰すために、次の3つのテストが使⽤されました。 1. High-Performance Linpack (HPL) は、システム パフォーマンスを測定するために使⽤される標準 的な計算ベンチマークです。 ノードと通信ファブリックの両⽅に同時に負荷をかけます。 2. NVIDIA® Collective Communications Library (NCCL) の all-reduceテストは、 最も頻繁に使⽤されるデータ並列ディープラーニング (DL) 通信パターンをシミュレートします。 3. LLMトレーニング︓NVIDIA Nemotronトレーニングは、クラスターのもつAIおよびディープラーニン グタスクの能⼒の包括的な評価を⽬的としています。
1. ⾼性能 Linpack (HPL) ベンチマーク環境 コンポーネント バージョン/説明 システム HGX H200 SXM サーバー数 126 GPU数 1,008 NVIDIA H200 SXM5 H200 - NVIDIA ドライバー 550.90.07 NVIDIA メラノックス OFED 24.04-0.7.0.0 HPL NVIDIA NGC コンテナ hpc-benchmarks:24.09 NCCL NVIDIA NGC コンテナ hpc-benchmarks:24.09 ニモ NVIDIA NGC コンテナ nemo フレームワーク 24.12
1. ⾼性能 Linpack (HPL) ベンチマーク結果(スケーラブルユニット) ノード 1 2 4 8 16 30 32 最大FLOPS (ギガフロップ ス/秒) 最小FLOPS (ギガフロ ップス/秒) 10回の反復に わたるパフォ ーマンス変動 (%) 401,400 808,500 1,599,000 3,203,000 6,385,000 11,420,000 12,470,000 390,400 788,600 1,570,000 3,162,000 6,290,000 11,330,000 12,450,000 2.78% 2.49% 1.83% 1.29% 1.50% 0.79% 0.16% スケーリン グ効率(%) 該当なし 100.83% 100.01% 100.45% 99.99% 95.92% 97.61% ノード 1 2 4 8 16 30 32 最大FLOPS (ギガフロップ ス/秒) 最小FLOPS (ギガフロ ップス/秒) 401,600 809,700 1,595,000 3,207,000 6,361,000 11,450,000 12,450,000 388,200 783,900 1,566,000 3,145,000 6,279,000 11,400,000 12,440,000 スケーリング 効率 (%) 400,700 812200 39万 788700 2.71% 2.94% 該当なし 101.27% 4 1,596,000 1,567,000 1.83% 100.02% 8 3,224,000 3,159,000 2.04% 100.58% 16 6,340,000 6,264,000 1.20% 99.84% 30 11,390,000 11,370,000 0.18% 96.02% 32 12510000 12440000 0.56% 98.67% スケーラブルユニット2(SU2) 10回の反復に わたるパフォ ーマンス変動 (%) スケーリング 効率 (%) ノード 3.39% 3.23% 1.83% 1.96% 1.30% 0.44% 0.08% 該当なし 101.10% 100.11% 100.37% 99.96% 96.48% 96.48% スケーラブルユニット3(SU3) 最小FLOPS (ギガフロ ップス/秒) 1 2 スケーラブルユニット1(SU1) ノード 最大FLOPS (ギガフロップ ス/秒) 10回の反復に わたるパフォ ーマンス変動 (%) 10回の反復に わたるパフォ スケーリン ーマンス変動 グ効率(%) (%) 最大FLOPS (ギガフロップ ス/秒) 最小FLOPS (ギガフロ ップス/秒) 1 400,200 391,500 2.20% 該当なし 2 809,300 782,500 3.36% 100.85% 4 1,602,000 1,559,000 2.71% 100.15% 8 320万 3,162,000 1.20% 100.33% 16 6,370,000 630万 1.10% 100.20% 30 11,440,000 11,410,000 0.26% 96.19% スケーラブルユニット4(SU4)
1. ⾼性能 Linpack (HPL) ベンチマーク結果(ランダム、126ノード) ノード 最⼤FLOPS(GFlop/s) 最⼩FLOPS(GFlop/s) 10回の反復にわたるパフォ スケーリング効率(%) ーマンス変動(%) su1、su2 64 24,820,000 24,750,000 0.28% 98.18% su2、su3 64 24,700,000 24,660,000 0.16% 97.67% su2、su4 64 24,710,000 24,680,000 0.12% 97.75% su1、su3 64 24,830,000 24,740,000 0.36% 98.22% su1、su4 64 24,780,000 24,740,000 0.16% 98.02% su3、su4 64 24,630,000 24,600,000 0.12% 97.43% ランダム32 12,500,000 12,290,000 1.68% 98.89% ランダム64 24,770,000 24,560,000 0.85% 97.98% ランダム96 36,770,000 36,280,000 1.33% 97.10% ランダム 126 47,620,000 47,400,000 0.46% 95.68% トップ500 126 49,850,000 TOP500 リストのライブラリとバイナリを使⽤して実⾏した HPL テストでは、126 ノードを使⽤して 49.85 PFlop/s のパフォーマンスが得られました。
2. NVIDIA® 集合通信ライブラリ (NCCL) ベンチマーク結果 NCCLテストスイートのall-reduceテストは、InfiniBandコンピュートファブリックを検証します。このNCCLテストは、 データ並列 DL トレーニング アプリケーションの通信パターン。 すべての InfiniBand 接続を最⼤限のパフォーマンスに引き上げ、ネットワ ークの問題に敏感です。 SU ノード数 最大 GB/秒 最小 GB/秒 パフォーマンス 変動率(%) 1 2 3 4 32 32 32 30 370.69 371.42 370.87 356.7 369.31 369.09 369.21 352.52 0.37% 0.63% 0.45% 1.17% SU su1、su2 64 su2、su3 64 su2、su4 64 su1、su3 64 su1、su4 64 su3、su4 64 ランダム64 ノード数 パフォーマン ス変動(%) 最大 GB/秒 最小 GB/秒 64 64 370.84 371.41 368.95 368.59 0.76% 64 64 371.02 370.83 368.05 369.16 0.87% 0.45% 64 64 371.02 370.96 369.57 370.01 0.39% 0.26% 64 371.31 368.1 0.86% 0.51% 報告されたパフォーマンスは、最⼤バッファ サイズでの良好な帯域幅です。 期待されるアウトオブプレース パフォーマンスは少なくとも 320 GB/秒です。
3. LLMトレーニング ベンチマーク結果 LLM Nemotronワークロードは、AIおよびディープラーニングタスクに対するクラスターの能⼒を包括的に評価することを⽬的としていま す。 トークス/秒 /GPU 1秒あたりのト ークンスルー プット 1Tトークン を数日でト レーニング する時間 精度 ノード GPUの 数 FP16 32 256 340B 4.87 9.86 26372.64 438.87 FP16 64 512 340B 4.89 9.75 52533.87 220.32 FP8 16 128 15B 2.17 2.32 28248.28 409.73 FP8 32 256 15B 2.18 2.33 56254.08 205.75 設定 ステップタイム (秒) • (1秒あたりのトークンのスループット) = (シーケンスの⻑さ) * (グローバルバッチサイズ) / (training_step_timing) • (トレーニング時間(⽇数)) = (合計トークン数) / (1秒あたりのトークンスループット) / (1⽇の秒数) * NVIDIA Nemo を使⽤
トレーニングパフォーマンスベンチマーク(Qwen 2.5) タスクSFT(教師あり微調整)LLM 学習可能な パラメータの 数 数の例 確認された⼊ ⼒トークンの 数 時代数 1 37,123 26360608 5 73,127,272,448 1,455 4億2106万8800 5時00分 2 37,123 26360608 5 73,127,272,448 1,455 4億2106万8800 3時間30 分 4 37,123 26360608 5 73,127,272,448 1,455 4億2106万8800 2時間4 分 8 37,123 26360608 5 73,127,272,448 1,455 4億2106万8800 1時間2 分 16 37,123 26360608 5 73,127,272,448 1,455 4億2106万8800 0時35分 クウェン2.5-72B指⽰する 32 37,123 26360608 5 73,127,272,448 1,455 4億2106万8800 0時22分 クウェン2.5-72B指⽰する ノード モデルサイズ 全体最適化の⼿順 到着予定 時刻 モデル名 クウェン2.5-72B指⽰する クウェン2.5-72B指⽰する クウェン2.5-72B指⽰する クウェン2.5-72B指⽰する 継続的な事前トレーニング 数の例 サイズデー タ(GB ) 時代数 1 11,726,507 11.7 32 11,726,507 32 11,726,507 ノード 11.7 11.7 全体最適化の ⼿順 学習可能な パラメータの 数 到着予定時刻 モデル名 1 45,807 32,763,876,352 7:59:33 ~ 31.3 ンガイ クウェン2.5-32B指⽰する 32,763,876,352 1 45,807 32,763,876,352 70時間 ~ 2.9⽇ クウェン2.5-32B指⽰する 32,763,876,352 4 45,807 32,763,876,352 31時間 ~ 1.3⽇ クウェン2.5-32B指⽰する モデルサイズ デバイスあたりの バッチサイズ 1 32,763,876,352 1 1
FPT AI Factory Japan(2026年6月時点のトップ36/500)
FPT AI Factory Vietnam (2026年6月時点のトップ38/500)
サービス内容について
FPT AIインフラストラクチャ 近⽇公開 マネージドGPUクラスター GPUコンテナ メタルクラウド GPU仮想マシン • 単⼀テナント専⽤の物理サーバー(ベ アメタル) • 物理的な直接アクセス ハードウェア • 専⽤ GPU カードを備えた仮 想マシン (VM) • 柔軟なリソーススケールと 展開 • Kubernetesで複数のベアメタ ルGPUサーバーを管理 • 専⽤GPUを搭載したコンテナ • 処理する必要はありません インフラストラクチャー • 利便性と導⼊の容易さ • スポットインスタンスを迅速に スケールアップ • 推論、軽量AIトレーニング、中 程度のデータ処理 • Metal Cloudの利点を継承 • コンテナ化されたアプリケーションを 最短時間で起動 ⽬的 • 厳格なレイテンシーとセキュリティ • 最⼤のパフォーマンス • ⻑時間の作業負荷を伴う⻑期使 ⽤ • ⼤規模なモデルトレーニング、複 雑な推論ニーズ、カスタムオーケ ストレーション • 集中的なAIワークロードには マルチGPUノード • 推論と軽量AIトレーニング サービスレベル保証 99% 99% 99.95% (コントロールプレーン) 99.5% グラフィックプロセッ サ運⽤モデル ベアメタル⽤の専⽤GPU8基 サーバ 仮想専⽤GPU 機械 クラスター専⽤のGPU • コンテナ専⽤のGPU • GPU仮想化をサポート (MIG、タイムスライシング) 主な特徴 • ハードウェアを完全に制御 カスタマイズ • GUIセルフサービスリソース管理 • スケーラブルなオンデマンドGPU • ⾃動スケーリング • FPTとのシームレスな統合 クラウド エコシステム。 • より⾼速なプロビジョニングなど ⽣産管理。 • Kubernetesバージョンの⾃動更新 • Slurm サポート (近⽇公開) • スケーラブルなオンデマンドGPU • ⾃動スケーリング、ゼロスケール • 直感的なコンテナ実⾏ GUI パッケージ 01サーバー(8xGPU)から 1台のGPU/仮想マシンから 1ノード(8x GPU)から 1x GPUから 課⾦モデル • 予約 • 従量課⾦制(時間単位) • 予約 • 従量課⾦制(時間単位) • 予約 • 従量課⾦制(時間単位) • 予約 • 従量課⾦制(時間単位) 意味 • 運⽤オーバーヘッドの削減 Kubernetes向け • 効率的なリソース利⽤
Metal Cloud の提供内容 推奨事項(追加) 当社のパッケージ (単⼀ノードまたは複数ノード ) 名前 メタルクラウドGPU H100 • ファイルストレージ - 複数のノード間 でトレーニングデータを共有するため の⾼性能 メタルクラウドGPU H200 8* NVIDIA H100 SXM5 640GBメモリ(80GB×8) 8* NVIDIA H200 SXM 1.1TB HBM3eメモリ(8* 141GB) • マネージドGPUクラスター Kubernetesオーケストレーション CPU デュアル Intel Xeon Platinum プロセッサー 8462Y+ デュアル Intel Xeon Platinum プロセ ッサー 8558 • 仮想マシン(汎⽤)GPUクラスタの管 理ノードおよびログインノード⽤ メモリ 4800MHz DDR5 DIMMで2TB 4800MHz DDR5 DIMMで2TB • オブジェクトストレージ トレーニングデータファイルを配布するには ストレージ 30TB(8 x 3.84TB NVMe SSD ) 30TB(8 x 3.84TB NVMe SSD) • ロードバランサ 可⽤性の⾼いインフラストラクチャ • 400Gbps* 8ポートInfiniBand • 200Gbps* 2ポート BF3 DPU • 400Gbps* 8ポートInfiniBand • 200Gbps* 2ポート BF3 DPU • ファイアウォール AIワークロードを保護するには • ネットワーキング ⾼速インターネットまたは直接接続 グラフィック プロセッサ ネットワーク • ノードあたりの GPU、CPU、RAM、ストレージは拡張できません。 • H100はベトナムで販売され、H200は⽇本で販売される。
Metal Cloud オファリングを使⽤した Kubernetes クラスター マネージドKubernetes K8S クラスターサービス ファイルストレージ - ⾼性能 コントロールプレーン FPTによる管理、クラスタとリソース管理 容量 ご要望に応じて1GBから ロードバランサ FPTによる管理、Kubernetesサービス管理が組み込まれています パフォーマンス最⼤スループット: 550 GBps ワーカーノード ベアメタルGPUサーバー ノードの価格 このサービスはMetal Cloudのパッケージごとに課⾦されます。 ワーカーグループ あたりのノード数 01台のベアメタルGPUサーバーから Metal Cloud(ベアメタルGPUサーバー) ネットワーク 特徴 推奨事項(追加) 名称 Metal Cloud GPU H100 • GPU 8* NVIDIA H200 SXM | 1.1TB メモリ (8* 141GB) • CPU デュアル Intel Xeon Platinum プロセッサー 8462Y+ • メモリ 2TB(4800MHz DDR5 DIMM経由) ストレージ 30TB (8 x 3.84TB NVMe SSD) ネットワーク • 400Gbps* 8ポート InfiniBand • 200Gbps* 2ポート BF3 DPU 200Gbps * 2ポート( EDR/HDR InfiniBand ) 並列ファイルシステム、NFS、 S3ゲートウェイ • • ⾼可⽤性(HA)コントロールプレーン を追加する ロードバランサ アプリケーションまたはワークロード向け フローティングIPアドレス ロードバランサまたは仮想マシン⽤ 仮想マシン(汎⽤) GPUクラスターのログインノードの場合 ファイアウォール AIワークロードを保護するには
Metalクラウド展開アーキテクチャ インターネット その他のクラウドプラットフォーム VPN ゲートウェイ インターネット サービス ダッシュボード FPTクラウドゾーン ベアメタルGPUクラスター 顧客のVPC ファイアウォ ール イーサネットネットワーク – 400Gbps/ノード 仮想マシン ストレージ クラウドGPUモニタリング VPNゲートウ ェイ バスティオンサ ーバー 物体 ストレージ ⾼性能 ストレージ クラウド GPU ノード1 クラウド GPU ノード2 クラウド GPU ノード3 インターネットゲー トウェイ クラウド GPU ノードN ファイルシステム クラスターネットワーク 8*400Gbps/秒/ノード ダイレクトコネク ト ゲートウェイ K8s サーバ 容器 スラム サーバ 雲 サーバ ブロック ストレージ 監視 データベー ス オンプレミス MPLS/ダークファイバー お客様 ゲートウェ イ データセンターサーバールーム
デモンストレーション と質疑応答
Thank you!