Cursor & GitHub Copilot で作る自社GPU × 全クラウドAI 協調アプリケーション- AI 駆動開発新時代- NVIDIA GPU ハイブリッド×マルチクラウド実装術-公開

-- Views

October 31, 25

スライド概要

【AI駆動開発カンファレンス 2025秋】- 現地参加登録案内サイト
10/31 https://aid.connpass.com/event/367698/

profile-image

FPT ジャパン エグゼクティブエバンジェリスト 独立行政法人 国立印刷局 デジタル統括アドバイザー兼最高情報セキュリティアドバイザー Microsoft で C#、.NET、Visual Studio、Windows、iOS、Android、Microsoft Azure 等の開発者向け技術啓発活動を担当後、Dell、Accenture、Elastic、VMware を経て現職まで一貫して同様の活動を継続。現職では NVIDIA AI GPU クラウドサービス、各パブリッククラウドとの AI 関連での協業、マーケティングを担当。政府の仕事は、内閣官房 政府 CIO 補佐官、 デジタル庁 PM を経て、現職を兼務。 AI 駆動開発勉強会主催。Locofy.ai の Regional Developer Advocate も兼務。

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

ダウンロード

関連スライド

各ページのテキスト
1.

Cursor / GitHub Copilot で作る⾃社 GPU × 全クラウド AI 協調アプリケーション - NVIDIA GPU ハイブリッド×マルチクラウド実装術 - 鈴⽊ 章太郎 Executive Evangelist, FPT Data & AI Integration FPT Japan Holdings

2.

鈴⽊ 章太郎 X (Twitter) ︓ @shosuz https︓//www.docswell.com/user/shosuz FPT ジャパン FPT データ& AI インテグレーション エグゼクティブエバンジェリスト 独⽴⾏政法⼈ 国⽴印刷局 デジタル統括アドバイザー兼最⾼情報セキュリティアドバイザー 略歴︓ AI 駆動開発勉強会主催。Microsoft エバンジェリスト時代から、Dell、 Accenture、Elastic、VMware を経て現職まで⼀貫して開発者向け に最新技術を啓発。GPU クラウド技術訴求、AI 駆動開発推進。 政府の仕事は、内閣官房 政府 CIO 補佐官、 デジタル庁 PM を経て、 現職を兼務。 2 / 12

3.

アジェンダ • ハイブリッド & マルチクラウドアプリケーションの必然性 • EC サイト新時代 - ハイブリッド GenAI の構築 • ハイブリッドエージェント協調システム

4.

ハイブリッド & マルチクラウド アプリケーションの必然性

5.

AI 時代に必要な計算リソース 処理時間の現実: 技術的要件: 🔥GPU 並列処理: 動画‧⾳声‧画像の同時⽣成 💾 ⼤容量メモリ: 1M トークン + マルチメディア 🔄 統合環境: 複数 AI モデルの連携 📈 スケーラビリティ: 需要に応じたリソース調整 ⚠ GPU 不⾜危機: パブリッククラウドで A100/H100 /H200 が枯渇状態 6時間 従来環境 従来環境 15分 必要環境 必要環境 処理時間の⽐率(24倍の差) パブリッククラウドの課題: AWS/GCP H100 待ち時間: Azure A100 時間単価: 8 GPU 構成の⽉額: 3〜6ヶ⽉ 約$4.1/時間 約300万円 ⼆重の課題: GPU 不⾜と⾼額コストが、マルチモーダル AI 開発の最⼤の障壁に

6.

FPT AI FACTORY ベトナム2地域と⽇本1地域 お客様む向けサービス AI/ML 開発エコシステム NVIDIA 認定システムアーキテクチャ 物理インフラ クラウド インフラ &プラットフォーム AI プラットフォーム AI 製品 FPT AI アプリケーション デジタル顧客 オンボーディング AI メンター エージェント スタジオ インテリジェント ドキュメント処理 市場 AI コンタクトセンター 強化 FPT AIエージェント メモリ ツール 計画 会話型 AI と AI エージェント ガードレール FPT AIスタジオ AI ノートブック モデル ハブ モデルファイン チューニング AI のためのデータ 処理 管理者 モデルの事前 トレーニング AI Marketplace 微調整された LLM モデル FPT AI 推論 Model モデル as-aサービング Service NVIDIA AI Enterprise NVIDIA NGC AI Solution Workflows, Frameworks & Pretrained models NVIDIA NeMo AI & Data Science Development Tools NVIDIA Inference Microservices Cloud Native Management & Orchestration データベースプラットフォーム ベクターデータベース NVIDIA H100/H200 FPT AI インフラストラクチャ GPU コンテナ GPU 仮想マシン ハイエンドネットワーク マネージド GPU クラスター ハイエンド CPU NVIDIA Base Command Manager メタル クラウド ファイル ストレージ ⾼性能ストレージ Infrastructure Optimization Infrastructure Management

7.

FPT AI Factory アーキテクチャーは NVIDIA 認定 • • FPT AI Factory サービスは、ベトナムと⽇本の複数の地域で展開 FPT AI Factory のアーキテクチャは NVIDIA のグローバル標準に準拠し、NVIDIA によって実装および検証済み • ⼤規模要件に対応するスーパーコンピューティング クラスター • 数千台の NVIDIA Hopper GPU (H200) • 超⾼速ネットワークに包含︓⾮ブロッキング InfiniBand ファブリック、組み込みハードウェア アクセラレーション⽤のデータ処理ユニット (DPU) 2つの新しい地域をリリース (合計7ゾーン、3地域) • 各クラスターの計算能⼒は最⼤ 69 PFLOPS • 100 以上のフレームワーク、事前トレーニング済みモデル、 ライブラリを提供する NVIDIA AI Enterprise ソフト ウェアプラットフォームとの統合 NVIDIA AI Enterprise NVIDIA NGC NVIDIA 推論マイクロサービス NVIDIA NeMo NVIDIA ベースコマンドマネージャー ネットワーキング ⽇本 ペタビット、ノンブロッキング NVIDIA Infiniband ファブリック ノード1 NVIDIA HGX H200 SXM*8 400Gbps インフィニバンド 400Gbps I nfi niband グローバル ネットワーキングパートナー JPN-01 GPUクラウド ベトナム - ハノイ 波⻑多重 HNI-02 GPU クラウド 400Gbps I nfi niband グ ラ フ ィ ッ ク プ ロ セ ッ サ G P あ な た グ ラ フ ィ ッ ク プ ロ セ ッ サ グ ラ フ ィ ッ ク プ ロ セ ッ サ 400Gbps インフィニバンド 400Gbps I nfi niband 400Gbps I nfi niband グ ラ フ ィ ッ ク プ ロ セ ッ サ グ ラ フ ィ ッ ク プ ロ セ ッ サ グ ラ フ ィ ッ ク プ ロ セ ッ サ グ ラ フ ィ ッ ク プ ロ セ ッ サ 400Gbps I nfi niband 400Gbps I nfi niband 400Gbps I nfi niband 400Gbps I nfi niband HCM-03 冗⻑性 負荷分散 HCM-01 HCM-02 災害復旧 ストレージ同期 HNI-01 HNI-03 。 。 。 DPU 。 NVIDIA HGX H200 SXM*8 400Gbps インフィニバンド 400Gbps インフィニバンド グ ラ フ ィ ッ ク プ G P U ロ セ ッ サ FPTクラウドサービス GPUサーバー 監視サービス グ ラ フ ィ ッ ク プ G P U ロ セ ッ サ グ ラ フ ィ ッ ク プ G P U ロ セ ッ サ グ ラ フ ィ ッ ク プ G P U ロ セ ッ サ 900 GB/秒の NVSwitch GPU から GPUへ 900 GB/秒の NVSwitch GPU からGPUへ ベトナム - ホーチミン ノードN ⾼性能ストレージ クラウドサーバー AI 開発カタログ 安全サービス コンテナサービス サイバーセキュリティ サービス 。 。 DPU

8.

TOP500 スーパーコンピュータランキングで⽇本第1位 FPT AI Factory は、2025年6⽉版 TOP500 において⽇本で最も優れた商⽤クラウドプロバイダーと して認定されました。※⽇本第1位、世界36位 146,304コアを搭載し、49.85ペタフロップスを達成。これは AI 及びクラウドコンピューティングにおける FPT の技術⼒を証明しており、国際的な AI 基盤としての 地位を確⽴しました。 TOP 500ランキングの重要性 TOP500 は世界中のスーパーコンピュータの性能を評価する 権威あるランキングで、LINPACK ベンチマークを基に計算能 ⼒を測定します。 このランキングは、各国の政府や研究機関、企業にとって、ハー ドウェア性能やシステム設計の国際的な基準を⽰す重要な指標 となっています。 「TOP500」ランキングで第36位および第38位に選出(出典︓TOP500.org) 圧倒的な性能 AI Factory は146,304コアを搭載し、49.85ペタフロップス の処理能⼒を誇ります。 この数値は、⼤規模なデータ処理や複雑な AI アルゴリズム の実⾏を可能にし、企業が競争⼒を 維持するための強⼒な ツールとなります。 特に、デジタル変⾰を進める企業にとって、FPT の技術は⽋か せないものとなるでしょう。

9.

マルチクラウド - SCSK Cloud netXchange サービスの利⽤ • FPT データセンター内 ExpressRoute / Direct Connect / FastConnect クラウド接続点により、 Google Cloud /Azure / AWS / OCI と構内接続することで FPT AI Factory に閉域接続が可能 • FPT AI Factory ⽤に、新たに Express Route のような閉域接続回線を⽤意する必要がないため、 コストと接続開始時期が⼤幅に短縮可能 ExpressRoute Microsoft Azure Cloud Interconnect Google Cloud FPT データセンター 閉域接続で⾼い安定性と セキュリティを確保 (既存) お客様拠点 Direct Connect Secure Cloud Interconnect FPT AI Factory Direct Connect AWS Fast Connect OCI Direct Link IBM Cloud Flexible Reliable Convenient 接続⽅法と帯域を柔軟に 選べるサービスメニュー 冗⻑構成を標準とした ⾼可⽤性を実現 接続に必要な BGP ルータを フルマネージドで提供

10.

EC サイト新時代 ハイブリッド GenAI 構築

11.

EC サイトのハイブリッド AI 活⽤による変化 EC の競争⼒ = 1 機密データ保護( オンプレ/プライベート) 2 ⽣成 AI のクラウド活⽤( 拡張性/速さ) 3 すべてを安全に両⽴︕

12.

AI 駆動開発ツールの使い分け EC サイトプロジェクト 開発エピソード ⼤体8~10時間でコーディング完了 Spec Kit は使わず Cursor で要件定義(Readme.md やドキュメントに要件を記載) 続いて GitHub Copilot を使い FTP AI Factory との連携とデバッグの基盤を作成し、⽂書にまとめる その後 GitHub Copilot / Cursor 両者を⽤いて個別モジュールの実装を⾏う 再び Cursor に戻り Google Cloud Cloud Run へのデプロイにおけるトラブルシューティング Cursor GitHub Copilot エージェント駆動の⾼速コード⽣成 ⼤規模なコード⽣成・リファクタリングに強み インクリメンタルな開発に最適 局所的な改善・問題発⾒に効果的 Cursor / GitHub Copilot の組み合わせで、Web アプリのデモを実装

13.

実装済み AI 機能 1. セマンティック検索 🔍 POST /api/ai/semantic-search 商品の特徴を⾃然⾔語で検索し、AI が最適な商品を推薦 例︓「軽くて⾛りやすいランニングシューズを探しています」 2. 会話型バスケット 🛒 ⚙ POST /api/ai/basket-chat カート内容を分析し、関連商品やセット商品を AI が提案 例︓カート内の商品に合う追加アイテムを提案 3. AI 多数決 (動的ハイブリッド AI プロバイダー連携で最適な応答を実現) • 購⼊履歴 ‧ 個⼈情報 → FPT AI Factory vLLM で 内部処理 • ⼀般的な商品質問は Vertex AI で⾼速対応

14.

ハイブリッド EShop シナリオ Cloud Run 上のマイクロサービス+ハイブリッド GenAI 連携を実演 Catalog Service Basket Service Identity Service Search Service オンプレミス環境 API Gateway Vertex AI Google Cloud LLM Frontend Service Google Cloud Engine オンプレ LLM Gemma, Nemotron FPT AI Factory PostgreSQL Cloud SQL Cloud Run + C#/.NET フルマネージドでスケーラブルな C# / .NET マイクロサービス Redis Memorystore Pub/Sub イベント連携 マネージドデータストア Cloud SQL + Memorystore + Pub/Sub で⾼性能バックエンド Vector DB AlloyDB/PG Vector ハイブリッド AI 連携 オンプレ+クラウド AI を必要に応じて 即時切替

15.

Gemma & Nemotron JP on FPT AI Factory Managed Cluster (H200 x 8)

17.

【デモ1】セマンティック検索&商品レコメンデーション • ⾃然⽂での検索 → ベクトル検索 → LLM 推薦 → クロスセル提案まで • Vertex AI マルチリージョン⾃動スケーリングでグローバル規模でも瞬時に体験可能 "夏⽤の軽量ハイキングシューズを探しています" ⾃然⾔語検索 ユーザーの意図を理解し、専⾨的なキーワードがなく ても最適 な商品を特定 ベクトル検索 商品説明‧特徴をベクトル化し、意味ベースの類似性でマッチング トレイルランナー 軽量 ¥12,800 サマーハイカー エアメッシュ ¥14,500 検索履歴 ‧ 好み ‧ 閲覧パターンから最適な商品を LLM が選定 あなたへのレコメンド 速乾ソックス LLM 商品レコメンド 防⽔スプレー クロスセル提案 選んだ商品との相性‧使⽤シーンに最適な関連商品を⾃動提案 Vertex AI グローバル⾃動スケーリング • • マルチリージョン展開で世界中どこでも<50ms 15秒間隔需要予測で瞬時に推論能⼒を調整

19.

【デモ2】会話型バスケット+パーソナライズ ショッピングカート 半袖Tシャツ(ネイビー) ¥12,500 サイズ︓L × 1 ¥2,500 サイズ︓25-27cm ¥1,800 サイズ︓27.0cm ¥8,200 ランニングソックス(3⾜組) ランニングシューズ このシューズに合うインソールを探しています ランニングシューズに最適なスポーツインソールがござい ます。クッション性に優れたタイプを追加しますか︖ いいですね。予算は3,000円以内で。あ と今⽇注⽂すると、到着はいつですか︖ ¥2,400のインソールをカートに追加しました︕本⽇ 16時までのご注⽂で明⽇の午前中にお届け可能 です。送料は無料です。 AI アシスタントに質問... AI チャットによる商品提案 FPT AI Studio vLLM テンプレートで起動した カスタム EC モデルによる会話型提案 パーソナライズド特典⾃動提案 会員状況‧購⼊履歴に基づいた最適な割引や特典 を⾃動表⽰ 配送オプション会話型案内 希望納期や配送⽅法を会話から 推測し最適な 選択肢を提⽰ Cloud Run 上のバスケットサービス .NET Pub/Sub経由で FPT AI Studio vLLM OpenAI 互換 API と連携 Cloud Run + Memorystore (Redis) でセッション管理

21.
[beta]
【デモ3】ハイブリッド AI
パーソナライズと多数決

BasketController.cs

[HttpPost("basket-chat")]
public async Task<IActionResult> BasketChat([FromBody] BasketChatRequest request)
{
// バスケット取得
var basketItems = await _basketService.GetBasketAsync(request.UserId);
// 個⼈データが含まれる場合はPrivate AI優先
var usePrivateAI = _privacyAnalyzer.RequiresPrivateProcessing(
request.Message, basketItems, request.UserId);

バスケット状態取得
会話コンテキスト ‧ 個⼈情報分
購⼊履歴参照
⼀般質問
FPT AI Factory
プライベート処理

string chatResponse; if
(usePrivateAI)
{
// Gemma/Nemotron vLLM on FPT AI Factory Managed Cluster へ

Vertex AI
クラウド処理

chatResponse = await _vllmK8sClient.ChatCompletionAsync($"""
バスケット: {string.Join(", ", basketItems.Select(i => i.Name))}
質問: {request.Message}

個⼈情報配慮で親切に回答、提案も追加

""");

ハイブリッド活⽤ポイント

}
else
{

• 購⼊履歴 ‧ 個⼈情報は FPT AI Factory
vLLM で 内部処理

// ⼀般会話はVertex AI
chatResponse = await _vertexAIClient.GenerateContentAsync($"""

バスケットQ&A: {request.Message}
バスケット: {string.Join(", ", basketItems.Select(i => i.Name))} """);

• ⼀般的な商品質問は Vertex AI で⾼速対応
}

• Redis(Memorystore)でバスケット状態を

return Ok(new {
basketItems, userMessage = request.Message, aiResponse = chatResponse, provider

キャッシュ

= usePrivateAI ? "FPT AI Factory vLLM" : "Vertex AI",

• 動的なプロバイダー選択で最適な AI 応答を実現

timestamp = DateTime.UtcNow
});
}

23.

EShop AI Gateway – 複合的判断エンジン フロントエンド層 Web Frontend ユーザー⼊⼒ .NET 8 / C# 12 Blazor Server Cloud Run Google Vertex AI クラウド情報で判断 AI Gateway .NET 8 / C# 12 Blazor Server Cloud Run FPT AI Factory オンプレミス情報で判断 ユーザー⼊⼒ → 両⽅の AI に並列送信 → それぞれが持つ情報で判断 → 応答 ※両者の持っている情報が異なる

24.

Vertex AI マルチリージョン展開 × Cloud Run 連携の強み • 可⽤性・⾃動スケール‧コスト効率 コンテナ単位の⾃動スケール ‧ 0〜N オートスケーリングで迅速コスト最適化 Cloud Run • 堅牢なマネージドデータベース Cloud SQL • ⾮同期イベント駆動型の推論連携 Pub/Sub PostgreSQL/Redis による⾼性能データ層 ‧VPC 経由プライベートアクセス リアルタイム連携 ‧ イベント駆動 AI レコメンド‧障害回復性の確保 Memorystore .NET / C# 分散アーキテクチャと Google Cloud ネイティブサービスの統合でスケーラビリティとコスト効率に優れた EC 基盤を実現 【Vertex AI グローバル展開の追加メリット】 • マルチリージョン配置︓us-central1, asia-northeast1, europe-west1 • A3/G2 シリーズ GPU︓15秒間隔需要予測ベース⾃動調整 • コスト効率︓⼤型マシン活⽤で総コスト最適化 Cloud Run はマイクロサービス基盤として必要。役割分担としては︓ Cloud Run = アプリケーション層のスケール ︓ Vertex AI = AI 推論層のスケール

25.

セキュリティ / 運⽤設計の要点 1 VPC / プライベートアクセス設計 Cloud Run は VPC Connector で内部サービスと安全接続 データベース‧キャッシュは完全なプライベートアクセス 2 CMEK + IAM + 監査ログ 顧客管理暗号化キーと⾃動ローテーション Cloud Audit Logs 連携で全操作の完全な監査証跡 3 API 権限分離とパフォーマンス監視 サービスごとの分離サービスアカウント&最⼩権限 Cloud Monitoring でリアルタイムパフォーマンス監視

26.

ハイブリッドエージェント 協調システム

27.

プロジェクト概要 (MultiCloud AI Agents) • ⽬的: ⽂書・⾳声・画像の機密度を判定し、 最適な AI プロバイダーへ⾃動ルーティング • ハイブリッド設計: オンプレ GPU(FPT AI Factory)× マルチクラウド(GCP/Azure/AWS) • クライアント: .NET MAUI(iOS/Android) + Blazor Server(Web) • 中核: AI Gateway の階層的判断エンジン. (セキュリティ/コスト/性能の最適化)

28.

主要機能 (Phase A/B/C) • Phase C: ゼロトラスト・ゲートキーパー (⽂書機密性判定) ✅ 完成 • Phase B: ⾳声AIアシスタント (ゼロトラスト⾳声認識) ✅ 完成 • Phase A: バーチャル試着 (画像合成) ✅ 実装完了 • 機密レベル: ・Public ・Internal ・Confidential ・Restricted ・Top-Secret Phase C→B→A 実装順序のフロー図(左から右へ)

29.

各 Phase の機能詳細 • Phase A(バーチャル試着): 画像→判定→ 適切な AI 選択。EC サイトでの試着体験をデ モ実装。DALL-E 3 画像⽣成機能を統合。 • Phase B(⾳声 AI アシスタント): Azure STT に送付、機密度に基づき AI プロバイダー を⾃動選択。 TTS 応答で会話履歴を⾊分け表⽰。 • Phase C(⽂書機密性判定): 正規表現 200⾏を実装し、ローカルで0.001秒以内に 5段階判定。 機密情報を外部送信せずルーティング。 • 処理フロー: ユーザー⼊⼒→ Gateway →機 密性判定 → 適切な AI 選択 → 推論処理 →応答。 コンプライアンスとパフォーマンスを両⽴。

30.

(⼀考察)法的考察: デジタル証拠収集の適法性 主要な法的論点 • 写真撮影の適法性: 最決昭和44年 (京都府学連事件)- 証拠保全の 必要性・緊急性・相当な⽅法が条件 • 必要最⼩限度の原則: 差押えは「必要な 処分」に限定、全⽂書の無差別撮影は違 法収集証拠として排除の可能性 • 強制処分法定主義: 最決平成20年 (GPS 捜査)- AI OCR+機密性分析 は明⽂規定がない「新技術」に該当 適法な運⽤要件 • ⽂書機密性分析機能の法的枠組みと運⽤要件 • 事前の令状取得と対象の明⽰ • 実務上の対応策: 撮影対象を令状の範囲内に厳密に限定し、ログを詳細に記録 • 無差別撮影の回避と選別の徹底 • 各捜査機関が独⾃のガイドラインを策定、内部チェック体制を整備 • 結論: 明確な令状範囲内での使⽤、⼈間による最終判断、詳細なログ記録が必須 • 将来的には、新技術に対応した⽴法による明⽂化が望ましい

31.

ゼロトラスト アーキテクチャ • アプローチ1(厳密): 元データを外部に 送らない。 • メリット: 漏洩ゼロ / デメリット: 端末依存・ 精度/実装コスト • アプローチ2(実⽤・採⽤): テキスト化後 に判定 • Azure/Google等のエンタープライズ準拠 で⾼精度 • 核⼼: 判定のために機密情報を外部送 信しない/信頼できるサービスを選択的 に活⽤ • 機密情報処理: TopSecret/Restricted レベルの情報はオンプレミス(FPT AI Factory)で処理 2つのアプローチを⽐較したゼロトラストセキュリティモデル

32.

マルチクラウド AI 連携とルーティング • ルーティング⽅針: Public → Gemini Flash、Internal/Confidential → Azure OpenAI・Amazon Bedrock、Restricted/Top-Secret → FPT AI Factory • 多数決/並列呼び出し: ユースケースに応じて最適応答を選択、⾼速性と精度のバランスを実現 • 効果: ベンダーロックイン回避、⾼可⽤性確保、コスト最適化を実現

33.

FPT AI Factory 統合 • 最⾼性能: 49.85 PFLOPS(TOP500 ⽇本1位)、146,304コアの圧倒的な処理 能⼒ • NVIDIA 認定: グローバル標準に準拠した H 200クラスター、NVIDIA AI Enterprise ソフトウェア統合 • モデル/実⾏: vLLM(Gemma-3-1B、 gpt-oss-120b)、SSH + Port Forwarding で接続

34.

AI 駆動開発プロセス (Spec Kit × Cursor × GitHub Copilot) • フロー: Spec Kit で設計 → Cursor Agent で実装 → GitHub Copilot でテスト⽣成 • 効率: 従来3⽇ → 4時間 (87%削減) • 品質: テストカバレッジ90%超、⾃動テスト ⽣成、エッジケース検出 • 環境/ツール: .NET 8/9、Docker、 NVIDIA Container Toolkit、Xcode、 Android Studio

35.

スペック駆動開発の全体フロー specify(要件定義) plan(設計) ゼロトラストを全⼯程で徹底 ・⾳声データを信頼できるクラウドで判定 ・⽂書の機密情報をローカル判定 ・画像データも外部漏洩ゼロ設計 開発時間削減効果 Phase C(⽂書機密性判定): 3⽇ → 4時間 (-87%) task(タスク分解) Phase B(⾳声AI): 5⽇ → 7.5時間 (-85%) ツール連携 実装 テスト Spec Kit 要件/設計 Cursor 実装 Copilot テスト

37.

Phase C デモ

38.

Phase B デモ

39.

Phase A デモ デモモード

40.

Phase A デモ 実機モード

41.

エンタープライズ価値提案 • 戦略的柔軟性: マルチクラウド/ハイブリッドで冗⻑化と交渉⼒を確保 • セキュリティ/規制: 機密データはオンプレ(FPT)で処理、GDPR/個⼈情報保護法対応 • コスト/性能: GPU層を明⽰的に設計し最適化、オンプレ×クラウドでバランス • UX/運⽤: .NET MAUI + Blazor で⼀貫 UX、監査/権限分離/監視で運⽤性を確保

42.

まとめと今後の展望 • まとめ: ハイブリッドAI × マルチクラウド × ゼロトラストで安全・⾼速・柔軟な協調アプ リを実現 • 次の⼀⼿: データ永続化統合、⾳声/推薦 の⾼度化、動的プロバイダー選択、監査/ダ ッシュボード • アクション: PoC の実施、閉域/接続設計、 モデル/コスト評価、運⽤基盤の整備 • Amazon Bedrock AgentCore や Microsoft Agent Framework を利⽤ した統合

43.

Thank you!

44.

Appendix :

45.

ハイブリッドエージェント協調システム - MultiCloud AI Agents .NET 9 MAUI (iOS/Android/macOS) + Blazor Server 3つの専⾨機能がゼロトラストアーキテクチャで 協調 Phase C: ⽂書機密性判定 (5段階分類・ルーティング) Phase B: ⾳声 AI アシスタント (Azure Speech to Text → 機密性判定→ AI 選択) Phase A: バーチャル試着(画像合成・ デモモード・本番モード両搭載) マルチクラウドAI: Amazon Bedrock/ Azure OpenAI / Google Vertex AI / FPT AI Factory Phase C: ⽂書機密性判定 Phase B: ⾳声 AI アシスタント Phase A: AI バーチャル試着 マルチクラウド AI 連携 AWS Azure Google FPT AI

46.

システムアーキテクチャ Azure OpenAI Service .NET 9 MAUI (モバイル) Blazor Server (Web) ASP.NET Core Gateway API DocumentConfidentiality Service Google Vertex AI Amazon Bedrock FPT AI Factory (オンプレミスGPU) 処理フロー︓ユーザー⼊⼒ → Gateway → 機密性判定 → 適切な AI 選択 → 推論処理 → 応答

48.

ゼロトラスト設計︓2つのアプローチ⽐較 項⽬ アプローチ1: 厳密なゼロトラスト アプローチ2: 実⽤的なゼロトラスト(採⽤) 定義 元データを外部に送らない テキスト化後に機密度判定 Phase C(⽂書) ローカル OCR → テキスト判定 クラウド/ローカル OCR → テキスト判定 Phase B(⾳声) オンデバイス STT → 判定 Azure STT → テキスト判定 Phase A(画像) ローカル処理 → 判定 ローカル/クラウド処理 → 判定 メリット 元データ漏洩ゼロ ⾼精度、実装済み、エンタープライズグレード デメリット デバイス依存、精度低下 元データは信頼できるクラウドへ送信 採⽤理由 実⽤性: 電話(IP電話)で機密情報を話すのは⼀般的 現実: iCloud/Google Photo への⾃動画像アップロードがデフォルト セキュリティ: Azure/Google/AWS はエンタープライズ GDPR 準拠 本質: Phase C のテキスト機密度判定がセキュリティの核⼼ ゼロトラストの再定義 ゼロトラスト = ❌ クラウド禁⽌ ゼロトラスト = ⭕ 信頼できるサービスを選択的に使⽤ 処理フロー(アプローチ2) Phase B: ⾳声 ⾳声 Azure STT テキスト Phase C 判定 Phase C: ⽂書 画像 OCR テキスト Phase A: 画像 判定 画像 適切な AI 選択 判定 AI 選択 AI 選択 処理

49.

ゼロトラスト設計の要点 • 採⽤: 実⽤的ゼロトラスト(アプローチ2) • ⽂書: OCR → ローカル正規表現判定 → AI ルーティング決定 • ⾳声: Azure Speech to Text で テキスト化 → その後に判定して AI へ • 画像: ローカル判定後に適切な AI を選択 (実機の場合 FPT AI でプライベート処理) • 原則: 機密情報は判定のために外部送信 しない、処理場所の透明性 • 現実対応: エンタープライズクラウドの ガバナンスに準拠し実⽤性を重視

50.

Phase C 開発プロセス: スペック 駆動開発の実践 最新の AI 開発⽀援ツールを活⽤したマルチクラウド AI アーキテクチャの実装例 1 Spec Kit で設計書⽣成 2 • DocumentConfidentialityService.cs を実装 • 正規表現パターンを200⾏実装(1-2分) • リファクタリング・最適化 • 5段階機密レベルの仕様を⾃動⽣成 • 検出パターンの定義(個⼈情報、財務情報、 医療情報等) • API インターフェース設計 3 GitHub Copilot でテスト⽣成 4 • 4つのサンプルデータのユニットテスト⾃動⽣成 • エッジケースの検出 • バリデーションロジック補完 開発時間 従来3⽇ → AI 駆動開発で4時間 Cursor Agent でコード実装 統合・デバッグ • MAUI アプリとの統合を Cursor でサポート • クロスプラットフォーム対応 • ビルドエラーの⾃動修正 開発者体験向上 87% 削減 ✅ コード品質: ⾃動テスト⽣成で カバレッジ90%以上 🚀 開発者体験を最⼤化するツールチェーン

51.

スペック駆動開発の全体フロー specify(要件定義) plan(設計) ゼロトラストを全⼯程で徹底 ・⾳声データを信頼できるクラウドで判定 ・⽂書の機密情報をローカル判定 ・画像データも外部漏洩ゼロ設計 開発時間削減効果 Phase C(⽂書機密性判定): 3⽇ → 4時間 (-87%) task(タスク分解) Phase B(⾳声AI): 5⽇ → 7.5時間 (-85%) ツール連携 実装 テスト Spec Kit 要件/設計 Cursor 実装 Copilot テスト

52.

Spec Kit セットアップ インストール # グローバルにインストール npm install -g spec-kit # バージョン確認 spec-kit --version 初期化 # プロジェクト内で初期化 spec-kit init # Constitution.md が⾃動⽣成される ⽣成: ./Constitution.md ⽣成: ./docs/ ⽣成: ./specs/ Constitution.md の役割 プロジェクトの原則・価値観・制約を明⽂化→ AI ツールの⼀貫性を担保 ゼロトラスト原則の規範化→ 「機密情報を判定のために外部に送らない」 推奨ディレクトリ構成→ specs/: 要件定義→ docs/: 設計書 spec-kit の各コマンドが Constitution.md を参照して⼀貫性を保つ ディレクトリ構造 MultiCloudAI.Agents/ ├── Constitution.md # プロジェクト原則 ├── specs/ # 要件仕様 │ ├── phase-b-requirements.md │ └── phase-c-requirements.md └── docs/ # 設計書 ├── phase-b-design.md └── phase-c-design.md 推奨設定: プロジェクト開始時にゼロトラストの原則を Constitution.md に明記することで、AI 開発⽀援ツールが ⼀貫してセキュアな設計を提案

53.

specify コマンド︓要件定義の⾃動化 コマンド構⽂ # 基本構⽂ spec-kit specify --phase <フェーズ名> --topic <トピック名> # オプション --output <出⼒ファイルパス> --format md|json Phase C︓⽂書機密性判定 # ⽂書機密性判定の仕様⽣成 spec-kit specify --phase C ¥ --topic "⽂書機密性判定" ¥ --output specs/phase-c-requirements.md ⽣成: specs/phase-c-requirements.md - 5段階機密レベル定義 - 検出パターン(正規表現) - AI プロバイダー推奨設定 Phase B︓⾳声 AI アシスタント # Azure STT ⾳声認識実装 の仕様⽣成 spec-kit specify --phase B ¥ --topic "Azure STT ⾳声認識実装 " ¥ --output specs/phase-b-requirements.md ⽣成: specs/phase-b-requirements.md - iOS/Android ⾳声認識実装 - Azure STT ⾳声認識処理要件 - Phase C 統合フロー specify コマンドの⽬的 フェーズ別の要求仕様を Markdown で⾃動⽣成 → 構造化された要件定義を短時間で作成 Constitution.md からゼロトラスト原則を継承 → ⼀貫したセキュリティ設計の担保 ⽣成される仕様には⾮機能要件も含む → セキュリティ・パフォーマンス・拡張性 ⾃動⽣成された仕様は plan コマンドの⼊⼒に → 設計・実装の連続的な⾃動化 ポイント: specify 実⾏時に --zero-trust フラグを追加すると、 よりセキュアな仕様が⽣成される Phase B/C では共にこのフラグを使⽤

54.

plan コマンド︓設計書⾃動⽣成 設計書⾃動⽣成フロー 仕様書(specify コマンド出⼒) $ spec-kit plan --phase C ¥ --output docs/phase-c-design.md plan コマンドの設計⽣成要素︓ spec-kit plan --phase B/C 設計書(Markdown) 機密度レベル判定ロジック Public Internal 公開情報 → Gemini Flash 社内情報 → Azure OpenAI / Amazon Bedrock Confidential 機密情報 → FPT AI Factory Restricted 極秘情報 → FPT AI Factory アーキテクチャ設計 ・⽂書機密性判定のコンポーネント構成 ・MAUI / バックエンドの連携⽅法 ・レイヤー化された判定プロセス 機密度判定ロジック ・5段階レベル(Public〜TopSecret) ・パターン検出アルゴリズム ・正規表現ルールセット マルチクラウドルーティング ・機密度に応じた AI 選択 ・プロバイダー特性のマッピング ・フェイルオーバー戦略 ポイント︓ 設計書にゼロトラスト原則を ⾃動的に適⽤し、 機密情報を外部に送信しないアーキテクチャを⽣成

55.

task コマンド︓タスク分解と優先順位 コマンド実⾏例 優先順位付け # Phase B のタスク分解 spec-kit task --phase B --export tasks.md # ゼロトラスト準拠のチェック項⽬付与 spec-kit task --phase B --check-zero-trust # ⾃動⽣成された優先度 【⾼】︓セキュリティ要件を満たすタスク 【中】︓機能要件を満たすタスク 【低】︓改善/最適化タスク # 依存関係グラフも⾃動⽣成 タスク1 → タスク3 タスク2 → タスク3 出⼒例(tasks.md) タスク分解の⾃動化 ## ⾳声 AI アシスタント 実装タスク 1. Azure STT ⾳声認識実装 【⾼】 - iOS: SFSpeechRecognizer 設定 - RequiresOnDeviceRecognition=true 設定 - # ゼロトラストチェック: ⾳声データの Azure STT 送信 2. Azure STT ⾳声認識実装 【⾼】 - RecognizerIntent設定 - ExtraPreferOffline=true 設定 - # ゼロトラストチェック: ⾳声データの Azure STT 送信 3. Phase C 統合 【中】 - 依存: タスク1, 2の完了 - DocumentConfidentialityService.cs 連携 設計書から実装タスクへ⾃動分解→ 開発者の認知負荷を軽減 優先順位の⾃動付与→ セキュリティ要件を最優先 依存関係の可視化→ 実装順序の最適化 ゼロトラストチェック項⽬の⾃動付与→ セキュリティ対策の抜け漏れ防⽌ 実践例: Phase B 実装では「Azure STT ⾳声認識」を最優先タスクに 設定、⾳声データが直接送信されないことを検証項⽬として明記

56.
[beta]
Phase C 実装(Cursor)︓機密性判定
実装概要

public class DocumentConfidentialityService
{
// 正規表現パターン(機密レベル別)
private readonly Dictionary<ConfidentialityLevel, List<Regex>>
_patterns;
public async Task<ConfidentialityAnalysisResult>
AnalyzeAsync(string text)
{
// 各パターンに対してマッチングを実⾏
// 最⾼機密レベルを特定
// 検出理由とともに結果を返却
}
}

Cursor による⾼速実装 1-2分
1-2分で約200⾏の機密性判定ロジックを実装
従来の⽅法では1⽇以上かかる作業
5段階の機密レベルを正確に判定
・Public: 公開情報
・Internal: ⽒名、電話番号
・Confidential: メールアドレス
・Restricted: マイナンバー、クレジットカード
・TopSecret: M&A情報、医療診断

Cursor での実装フロー︓

主要検出パターン

1

プロンプト記述︓「機密情報を検出する正規表現パターンを⽣成」

// Internal: 個⼈識別情報

2

クラス構造⽣成︓AI がインターフェースと実装クラスを提案

3

パターン定義︓AI が各機密レベルに応じた正規表現を実装

4

リファクタリング︓冗⻑なコードを最適化

new(@"(⽒名|名前)[:︓]? *([^ ]{1,10})")
new(@"電話[番号]?[:︓]? *(¥d{2,4})-?(¥d{2,4})-?(¥d{3,4})")
// Confidential: メールアドレス
new(@"[a-zA-Z0-9._%+-]+@[a-zA-Z0-9.-]+¥.[a-zA-Z]{2,}")
// Restricted: マイナンバー、クレジットカード
new(@"マイナンバー[:︓]? *(¥d{4})-?(¥d{4})-?(¥d{4})")
new(@"クレジットカード[:︓]? *(¥d{4})-?(¥d{4})-?(¥d{4})?(¥d{4})")

開発効率の⾶躍的向上:
複雑な正規表現パターンも AI が瞬時に⽣成
⽇本語固有の個⼈情報形式(マイナンバー等)にも対応

57.
[beta]
Phase C 実装︓正規表現パターンの完全版
機密レベル判定パターン

// 機密レベル判定⽤の正規表現パターン
public class DocumentConfidentialityService
{
// Internal: 個⼈情報(⽒名、電話番号)
private static readonly Regex PersonNamePattern =
new(@"[⼀-⿕々〆〤]{1,4}([ | ])[⼀-⿕々〆〤]{1,4}");
private static readonly Regex PhonePattern =
new(@"¥d{2,4}-¥d{2,4}-¥d{4}");
// Confidential: メールアドレス
private static readonly Regex EmailPattern =
new(@"[a-zA-Z0-9._%+-]+@[a-zA-Z0-9.-]+¥.[a-zA-Z]{2,}");
// Restricted: マイナンバー、クレカ、⼝座番号
private static readonly Regex MyNumberPattern =
new(@"¥d{3}-¥d{4}-¥d{4}");
private static readonly Regex CreditCardPattern =
new(@"¥d{4}[ -]?¥d{4}[ -]?¥d{4}[ -]?¥d{4}");
private static readonly Regex BankAccountPattern =
new(@"普通[⼝座番号|預⾦][ | ]?¥d{7}");
// TopSecret: M&A情報、医療診断
private static readonly Regex MaPattern =
new(@"M&A|合併|買収|株式譲渡|[0-9]+億円");
private static readonly Regex MedicalPattern =
new(@"診断[書|結果]|([A-Z]+型)|ガン|腫瘍|患者");
}

機密レベル判定の実装
Public 検出パターンなし(デフォルト)→ Gemini Flash に送信
Internal ⽒名︓漢字+空⽩+漢字電話番号︓¥d{2,4}¥d{2,4}-¥d{4}→ Azure OpenAI / Amazon Bedrock に送信
Confidential メールアドレス︓[a-z0-9._%+-]+@[a-z0-9.]+¥.[a-z]{2,}→ Azure OpenAI / Amazon Bedrock に送信
Restricted マイナンバー︓¥d{3}-¥d{4}-¥d{4}クレジットカード︓
¥d{4}[ -]?¥d{4}[ -]?¥d{4}[ -]?¥d{4}→ FPT AI Factory
に送信
TopSecret M&A情報︓M&A|合併|買収|株式譲渡医療情報︓診断
[書|結果]|ガン|腫瘍→ FPT AI Factory に送信

Cursorでの実装速度: 200⾏の正規表現パターンを約1-2分で
実装。エラーハンドリングとテストケースも⾃動⽣成。

58.

GitHub Copilot︓テスト⾃動⽣成 ユニットテスト⾃動⽣成 実装済みコードに対する最適なテストを提案・⾃動⽣成 Phase C での実例: • DocumentConfidentialityServiceTests.cs を⾃動⽣成 • テスト構造・検証ロジックを最適化 • アサーション条件まで精度⾼く提案 カバレッジ90%以上達成 網羅的なテストケースを提案し、⾼品質なテストスイートを構築 実績: • Phase C: DocumentConfidentialityService 全メソッドを網羅 • Phase B: VoiceAssistantService のプラットフォーム別分岐を検証 • 全ロジックパスを検証する詳細テストの⾃動作成 エッジケース検出 ⼀般的なテストでは⾒落としがちな境界条件・例外ケースを⾃動検出 検出されたエッジケース: • 空⽂字/Null 処理: 未⼊⼒時の機密度判定動作 • 多⾔語対応: ⽇本語以外のパターン検出精度 • 擬似個⼈情報: サンプルデータと実際の情報の区別 • パターン競合: 複数機密レベルの同時検出時の優先度

59.

Phase C デモ

60.

Phase B: ⾳声 AI アシスタント • Azure Speech to Text(STT) で⾳声 → テキスト化 • Phase C の機密性判定ロジックを 参照 → AI プロバイダー ⾃動選択 • 連携 AI: Azure OpenAI / Amazon Bedrock / Google Vertex AI / FPT AI Factory • デモ実装: ⾳声でなくサンプルテキスト で実⾏、返答は⾳声 + テキスト Azure Speech to Text

61.

Phase B: デモシナリオ • デモモード ON → サンプルテキスト使⽤ • パターン1: 天気など → Gemini Flash(Vertex AI) • パターン2: マイナンバーを含む → FPT AI Factory(プライベート) • パターン3: 社内情報、メールアドレス → Azure OpenAI、Amazon Bedrock • 出⼒表⽰: 選択 AI と判定理由を表⽰ (透明性担保) Azure Speech to Text

62.

Phase B デモ

63.

Phase A: バーチャル試着アーキテクチャ • .NET 9 MAUI(iOS/Android/macOS) 単⼀コードベース • デモモード: Resources/Images/DemoAssets の 3セット画像を表⽰ • 実機モード: 内蔵カメラ/EC サイト画像 → FPT AI Factory で画像合成 • ゼロトラスト判定(Phase C)の機密度 判定ロジックに応じて AI プロバイダー選択 • 利⽤ AI 候補: FPT AI Factory / Azure OpenAI / Amazon Bedrock / Google Vertex AI(選択制)

64.

Phase A: デモモードと実機モード • デモモード: ⼈物・服・試着結果の 3セットを同⼀番号で⼀致表⽰ • ランダム選択: セット ID を1つ抽選 して3枚を⼀貫表⽰ • UI: 縦スクロール、各画像は画⾯ 幅フル、 ラベル付き • メニュー: AppShell にバーチャル 試着を追加して、iOS シミュレーター で動作確認 • 実機モード: FPT AI Factory API 連携・合成結果の保存/共有

65.

Phase A デモ デモモード

66.

Phase A デモ 実機モード

67.

3つの Phase 統合 • Phase C: 正規表現で5段階判定 (Public/Internal/Confidential /Restricted/TopSecret) • Phase B: ⾳声 → テキスト化 → Phase C 判定へ連携 • Phase A: 画像合成によるバーチャル試着を実演 • 判定結果に応じて AI を⾃動選択し 応答 • ゼロトラストアーキテクチャで⼀貫設計

68.

AI 駆動開発ツール⽐較 ⽐較項⽬ Cursor GitHub Copilot フェーズ別 使い分け Phase B, A ⾳声 AI / バーチャル試着 Phase C, B ⽂書機密性判定 / ⾳声 AI Spec Kit 連携 ◎ネイティブ統合仕様書からの実装が ⾼精度 ◎基本サポートドキュメント参照可能 コード⽣成速度 ◎⾼速(エージェント駆動) ⼤規模なコード⽣成に強み ◎⾼速(補完中⼼) インクリメンタルかつ慎重な開発に最適 ◎対話的変更⼤規模リファクタリングに強み ◎提案型局所的な改善に効果的 ◎ファイル横断複雑なバグ解析に有効 ◎インラインコード内の問題発⾒に優れる リファクタリング デバッグ⽀援 両ツールの使い分け検証と開発体験の可視化が本プロジェクトの⽬的

69.

まとめ︓AI 駆動開発の価値 Spec Kit × Cursor × Copilot 相乗効果 ゼロトラスト設計の徹底 要件定義→設計→実装→テスト迄 AI ⾼速化・⾼品質化 ⾳声・⽂書・画像のすべてに⼀貫したゼロトラスト原則を適⽤ • 要件定義︓Spec Kit(specify)で機能要件を ⾃動⽣成 • 設計︓Spec Kit(plan)でアーキテクチャ設計を ⾃動化 → Spec Kit (task) でタスク分割 • 実装︓Cursor でコードを⾼速⽣成 (200⾏を 1-2 分で) • テスト︓Copilot でテストを⾃動⽣成 (カバレッジ90%) • Phase B︓Azure STT で認識した⾳声をテキストに して外部の AI に送付 • Phase C︓ローカル機密度判定で⽂書を外部には 送らない • Phase A︓バーチャル試着の実装 (個⼈の顔や体の画像は外部に送らない) パフォーマンス 次のステップ 効果を最⼤化する実装と視覚的表現 エンタープライズ価値をさらに⾼めるロードマップ • 可視化︓機密度判定・ルーティングのリアルタイム デモ • 永続化︓データ保存と履歴管理 (DynamoDB/CosmosDB/Firestore) • ⾳声︓iPhone Simulator で Phase B ⾳声 認識デモ • 監査︓コンプライアンス対応の履歴と証跡 • Phase A︓バーチャル試着の実機モードの実装 • Amazon Bedrock AgentCore や Microsoft Agent Framework を利⽤した統合

70.

事例︓AI 駆動開発で業務⾃動化ツールの開発速度・効率を最⼤化 AI 駆動開発を活⽤し、従来よりも⾼速に少ない⼯数で、業務を⾃動化するツールをアジャイル開発することに成功 お客様 ⾃動⾞業界 背景 • • 業務の中で利⽤している⾃動化ツールのロジックが保守メンテナンスされておら ず、対応していない業務があり、依然としてマニュアル作業が多く、業務負担に なっていた。 ⼯数の削減効果 エンジニア 開発⽣産性向上を⽬指し、AI エージェントを活⽤した開発を採⽤。 従来の開発の 想定⼯数 アプローチ • FPT が開発した AI エージェントツールである PrivateGPT を利⽤した AI 駆動開発を実施。 • ドキュメント作成にも AI を活⽤し、従来の設計書作成後に開発する流れ を、開発したコードを元に設計書を作成する⽅法へ転換。 コンサル AI駆動開発で 実際にかかった⼯数 20%減 90%減 結果・効果 • • • 合計50%減 1週間サイクルで実装、2週間でのツール機能リリースを実現。業務改善を 強⼒に推進。 ロール 稼働率 稼働量 合計 ロール 稼働率 稼働量 合計 コンサル 0.5 2カ⽉ 1.0⼈⽉ コンサル 0.4 2カ⽉ 0.8⼈⽉ 従来の⼈⼒で開発した場合の想定⼯数と⽐較して、50%少ない⼯数で、 3つの⾃動化ツールの開発・リリースに成功。 エンジニア 1.0 1カ⽉ 1.0⼈⽉ エンジニア 0.1 2カ⽉ 0.2⼈⽉ 設計書作成にかける⼯数を数分に短縮。要件定義後すぐに開発物の動作 確認ができることによって、現場と要件に齟齬がないか早期に擦り合わせや 修正が可能。⼿戻りのリスクを減らせた。 ※コンサルとエンジニアロールは同⼀⼈物 ※コンサルはモジュール設計書やテストケース作成 の⼯数がAI活⽤により削減