>100 Views
May 08, 25
スライド概要
FPT ジャパン エグゼクティブエバンジェリスト 独立行政法人 国立印刷局 デジタル統括アドバイザー兼最高情報セキュリティアドバイザー Microsoft で C#、.NET、Visual Studio、Windows、iOS、Android、Microsoft Azure 等の開発者向け技術啓発活動を担当。その後、Dell、Accenture、Elastic、VMware を経て現職(2024年入社)まで一貫して技術啓発活動を継続。NVIDIA との戦略的協業である AI GPU クラウドサービス や、各パブリッククラウドベンダーとの AI &データ関連サービスの技術マーケティング、プリセールス活動、教育活動、関連新規サービス開発、等を実施。
マルチエージェント AI コーディングの⾰新 ~ 多様な AI エージェントの連携によるエンタープライズアプリ 開発の変⾰ ~ 鈴⽊ 章太郎 Executive Evangelist FPT Japan Holdings, FPT Data & AI Integration
鈴⽊ 章太郎 X (Twitter) ︓ @shosuz https︓//www.docswell.com/user/shosuz FPT ジャパン FPT データ& AI インテグレーション エグゼクティブエバンジェリスト 独⽴⾏政法⼈ 国⽴印刷局 デジタル統括アドバイザー 兼 最⾼情報セキュリティアドバイザー 略歴︓ Microsoft で C#、.NET、Visual Studio、Windows、iOS、Android、Microsoft Azure 等の開発者向け技術 啓発活動を担当。その後、Dell、Accenture、Elastic、 VMware を経て現職まで⼀貫して技術啓発活動を継続。NVIDIA との戦略的協業 AI GPU クラウドサービス や、各パブリッククラウドベンダーとの AI&データ関連サービスのマーケ ティング、プリセールス活動、教育活動、関連新規サービス開発、等を実施する。 政府での仕事は、2019年4⽉〜2021年8⽉、内閣官房 IT 総合戦略室 政府 CIO 補佐官(法務省 CIO 補佐官併任)、2021年9⽉〜2024年3⽉、 デジタル庁プロジェクト マネージャーユニット ソリューションアーキテクト(⾦融庁 デジタル統括 アドバイザー併任) を 兼務を経て現職。
Agenda 1 CodeVista - マルチ LLM 対応 AI 開発ツール 2 2 Locofy.ai - デザインからのコード⽣成と MCP サーバーによる拡張 3 FPT AI Factory - NVIDIA GPU Cloud プラットフォーム
マルチエージェント AI とは 変⾰をもたらす協調型 AI コーディング マルチエージェントの定義 • • 複数の AI エージェントが異なる専⾨性‧能⼒を持ち、連携して問題 解決にあたるシステム 単⼀の AI が持つ制約を超え、より総合的なソリューションが可能に コード⽣成 AI UI デザイン AI 要件から最適コードを⽣成 デザインからコードを変換 開発⾰新の鍵となる理由 • 専⾨化された各エージェントが得意分野に集中 • エージェント間の情報共有によるコンテキスト理解向上 • フィードバックループによる継続的な品質改善 • ⾃律的なタスク管理とリソース最適化 テスト実⾏ AI インフラAI 品質検証と改善提案 最適な実⾏環境の提供 今⽇のフォーカス: CodeVista、Locofy.ai、AI Factory による統合アプローチ
ビジネス FPT AI プラットフォームの全体像 AI トランスフォーメーション データドリブン経営 AI エコシステム FPTの製品 Docify AI アプリ エンタープライズAI AI アプリケーション AIソフトウェア デジタルツイン ビデオ分析 データサイエンス&アナリティクス • バーチャルアシスタント • メインフレームのマイグレーション • スマートシティ&スペース • ファクトリーデジタルツイン • 需要予測 • ナレッジ管理 • コーディングアシスト • 検査・検品 • 製品ラインの最適化 • エッジ端末管理 • 専⾨知識/ドメイン特化型 • コード品質管理 • エッジ・ビジョンAI • 予知保全 • 予測分析 エージェント Nvidia フレームワーク インフラ Code Vista Nemo LLM Metropolis サービス コンサルティング データ エンジニアリング データクレンジング &アノテーション クラウドインフラ クラウド ハードウェア (GPU, スイッチ,..) サーバー サービス コンサルティング AI 設計開発 Omniverse MLOps / LLMOps RAPIDS メンテナンス データセキュリティ データベース システムインテグレーション マネージドサービス CloudOps / DevSecOps
CodeVista : FPT による AI コーディングアシスタント マルチ LLM 対応 • 最新の複数 LLM への対応で、タスクに最適なAI モデルを柔軟に選択 • 様々なユースケースやワークフローに適応 4o Gemini Claude CodeVista の強み GPT-4o/4o mini, Gemini 2.5, Claude 3.7など セキュアな設計 トラストレイヤーによる機密情報保護、有害コンテンツの⾃動 フィルタリング 幅広い開発環境に対応 • 複数の IDE と連携し、開発者の選択したワークスペースをシームレスに強化 • すでに導⼊済みの AI ツールとも共存可能 VS Code Visual Studio Cursor IntelliJ IDEA Android Studio リポジトリレベルのコンテキスト理解 • プロジェクト全体を理解し、ファイル間の依存関係や構造を考慮した⾼品質な⽀援を提供 • セキュリティポリシーに合わせた柔軟なコンテキスト設定が可能 https://codevista.ai/ ⾼速なパフォーマンス 最適化された処理エンジンによる応答時間の短縮とストレス フリーな操作感 柔軟な統合性 既存の AI ツール(GitHub Copilot、Gemini 等)と 共存可能なプラグインアーキテクチャ コンテキスト保持能⼒ 過去のやり取りを記憶し、⼀貫した対話と提案を維持 次のセクション: CodeVistaのデモ でリアルな活⽤例をご紹介
CodeVista 全体概要ロードマップ 差別化 プログラミング ⾔語 プロンプトライブラリー Python Rust IDEサポート Visual Studio Code ドメイン特化対応 JavaScript Swift API-based (OpenAI, Google, Antropic …) C# Ruby PHP …… COBOL Go AI モデル 独⾃ LLM モデル (AI Factory 等) C++ Java JetBrains コア インターネット検索可能 Android Studio Visual Studio 展開可能 クラウド オンプレミス セキュリティーの対策 データを暗号化 個⼈情報をマスク アクセス制御 第三者によるセキュリティ監査・認証 Trust Layer による機密情報を保護
CodeVista デモ : AI 駆動のコード分析と最適化
ハイライト
1 レガシーコード分析
複雑なコードベースを⾃動的にスキャンし、脆弱性、⾮効率な
処理モダンではないパターンを特定
CodeVista
レガシープロジェクト
src/
models/
services/
UserService.js
controllers/
package.json
/ / U s e r S e r v i c e . j s - レガシーコード ( ⾮最適化
) c l a s s UserService {
constructor() {
this.users = [];
this.loggedIn =
false;
2 マルチ LLM による改善提案
複数の AI モデルからの改善案を⽐較し、最適な解決策を選択
セキュリティ強化
⾮同期最適化
モダン構⽂
this.currentUser = null;
}
fetchAllUsers() {
r e t u r n new P r o m i s e ( ( r e s o l v e , r e j e c t ) =>
{
/ / データベースからの同期取得 - ブロッキング操作
setTimeout(() => {
try {
const users = [
{ i d : 1 , name: ' U s e r 1 ' , r o l e :
'admin' },
CodeVista: この UserService クラスにはセキュリティリスク、パフォーマンスの問題、モダンなベストプラクティスから
{ i d : 2 , name: ' U s e r 2 ' , r o l e :
外れている点が⾒られます...
'user' }
3 ⾃動リファクタリング
提案された改善を適⽤し、モダンで安全、最適化されたコードに
変換
4 対話型フィードバック
変更の理由を詳細に説明し、開発者の要望に応じたさらなる
最適化を提案
ビジネスインパクト: レガシーコード最適化によりセキュリティリスク
軽減、保守性向上、新規機能追加の迅速化を実現。開発者の
学習曲線も緩和。
DEMO COBOL のソースコードを CodeVista と GitHub Copilot Agent Mode で説明させる
DEMO Android Studio 上で⽣成された コードを CodeVista と Gemini に 説明させる
エンタープライズ顧客における UI/UX PoC 等の評価傾向 • PoC の評価と本番が密接に関連 • とりあえずの UI を作っておくとそれが 関係者に本番と誤解されがち • 要求仕様が細かくそれに忠実に対処 する必要がある • ⾦融、製造、流通…どのインダストリ のアプリも⼀品もの嗜好の傾向 • 関係者によってこだわりポイントが違う • コンポーネント化されて管理されること が多い
Figma + GitHub 等を使ったコンポーネント単位の管理 開発者とデザイナー(社内外)とのコンポーネント単位のコラボレーションが多い傾向 フロントエンドの構築では、デザイナーとエンジニア の間で多くの時間が浪費されている
Locofy.ai : デザインからコード⽣成の AI ⾰命 ラージデザインモデル(LDM) • • ⼀般的な LLM とは異なり、UI デザインに特化した専⽤ AI モデル 何百万ものデザインとアプリから学習し、UI 要素やパターンを深く理解 デザインからコードへの変換プロセス Figma デザインファイル Figma Figma プラグインによる直感的操作 • デザイナーの作業環境を離れることなく、ワンクリックでデザインからコードを⽣成 • React、Vue、React Native など複数のフレームワークに対応 LDM による解析 UI パターン認識‧コンポーネント構造分析 ⽣成された React コード 新機能 : MCP サーバー (2025年3⽉〜) • デザインからピクセルパーフェクトなコードを出⼒し、それを⾃然⾔語で修正‧ 拡張できる⾰新的機能 • API インテグレーションやバックエンドロジックを容易に接続可能 Cursor GitHub Copilot Windsurf と連携 ⚡ MCP サーバー機能 API 連携‧バックエンドロジック追加⾃然⾔語に よる拡張と修正 Locofy.ai の⾰新性: デザイナーとエンジニアの溝を埋め、開発サイクルを最⼤70%短縮。エンタープライズ開発での⼿戻りを⼤幅に削減 https://www.locofy.ai/ React
LLM は脚本を書き、LDM はキャンバスをセットする Large Language Model Large Design Model 記事、SNS ポスト、電⼦書籍、など デザイン、シェイプ、ベクター、シンボル Then Now
Locofy.ai デモ : デザインからコードへの⾃動変換
Figma - レスポンシブログインページ.fig
Figma
デザインコンポーネント認識
デモハイライト
1
Figma デザイン解析
2
コード⽣成
ボタン、⼊⼒フィールド、カードなどの UI パターンを⾃動検出
Locofy.ai MCP サーバー
LoginPage.jsx
//
aut h
API.j
s
LoginPage.css
LoginPage.jsx
import
import
import
import
API 連携と拡張
-
LDMが Figma デザインの構造を分析
UI コンポーネントとレイアウトを⾃動認識
React コンポーネント、スタイル、レスポンシブ対応を含む⾼品質な
コードを⾃動⽣成
L o c o f y . a i によって⽣成されたコード
R e a c t , { u s e S t a t e } from " r e a c t " ;
{ u s e A u t h C o n t e x t } from " . . / c o n t e x t / A u t h C o n t e x t " ;
{ a u t h e n t i c a t e U s e r } from " . . / s e r v i c e s / a u t h A P I " ;
s t y l e s from " . / L o g i n P a g e . c s s " ;
c o n s t LoginPage = ( ) => {
const [credentials, setCredentials]
= useState({ username: " " ,
password: ""
});
//
MCP サーバーにより追加されたAPIインテグレーション
c o n s t handleGoogleSignIn = ( ) => {
window.location.href = "/api/auth/google";
};
3
MCPサーバー機能による API 連携
⾃然⾔語指⽰により OAuth 認証やデータフェッチ等のバックエンド
ロジックを追加
「ログインフォームに Google 認証を追加して、成功時にはユーザーダッシュ
ボードにリダイレクトして」
4
AI 開発ツールとの連携
⽣成コードを Cursor、GitHub Copilot、Windsurf などの外部
AI ツールと連携
ビジネス効果: デザインからコードまでの⼯数を約70%削減
デザイナーとエンジニア間の⼿戻りを最⼩化
DEMO Locofy.ai による DesignToCode の実⾏と MCP サーバー経由による インタラクションの追加
Locofy による Design To Code
Locofy MCP https://www.locofy.ai/docs/export-and-deployment/locofy-mcp/ • • Locofy で⽣成したコードを AI コードエディタ(Cursor、Windsurf、Claude Desktop など)と統合‧拡張するためのプロトコル コードの⽣成精度を向上させ、フロントエンドコードのより効果的な活⽤を可能にする
Locofy MCP を始める⽅法 1 Figma プラグイン準備 Figma でのプロジェクト作成と Locofy プラグインを使ったデザインの コード変換 2 デザインの最適化 MCP トークン⽣成プロセス 1 プロジェクト設定から MCP 設定タブへ移動 2 トークン有効期限を選択(1ヶ⽉または無期限) 3 「トークン⽣成」ボタンをクリック 4 IDE を選択し MCP 設定ファイルをコピー ⾼品質なコードを⽣成するために、Figma デザインを最適化する 3 Locofy Builderへの同期 MCP を使⽤する前に、デザインを Locofy Builder に同期させる 4 MCPトークンの⽣成 Locofyダッシュボードからプロジェクト設定でMCPトークンを⽣成する ※ MCP を使⽤する前に必ずデザインを Locofy Builder に同期してください
Locofy MCP の設定と使⽤⽅法 エディタでの設定⽅法 MCP の使い⽅ Cursor での設定 1.プロジェクトのルートディレクトリに .cursor フォルダを作成 2.⽣成された MCP 設定ファイルを .cursor/mcp.json として保存 3.Cursor 設定から MCP タブを開く 4.「Disabled」をクリックして Locofyサーバーを有効化 ※ 数秒後にサーバーが有効化されない場合は、更新アイコンをクリックしてください チャットの起動 コードファイルを開き、IDE のチャット機能を起動(⌘+I または ⌘+L) ※Agent モードを使⽤してください ⾃然⾔語でコード取得 •「NavigationBar コンポーネントを Locofy から取得して」 •「Homepage を pull して、ナビバーを現プロジェクトのものに置換して」 •「ListingCard コンポーネントを取得してマージ」 •「Homepage を取得してアクセシビリティ対応にして」 利⽤可能なツール ・getLatestComponentAndDependencyCode: 依存関係を含めてコードを取得 ・getLatestFileCode: 特定のファイルのみを依存関係なしで取得 ※ コードのマージも⼀緒に依頼することをお勧めします MCP を使った Locofy コードのカスタマイズ例 アクセシビリティの追加 フォームバリデーション ダークモード対応
Locofy MCP 実装例
アクセシビリティ追加
フォームバリデーション
Locofy で⽣成したコンポーネントに ARIA 属性や
Locofy で⽣成したフォームに⼊⼒検証ロジックとエラー
キーボードナビゲーションを追加
メッセージを追加
ダークモード対応
Locofy コンポーネントにダークモード切り替え機能を実装
accessibility.jsx
form-validation.jsx
dark-mode.jsx
// Locofyからコンポーネントを取得
const [email, setEmail] =
useState('');
const [error, setError] =
useState('');
const validateEmail = () => {
if (!email.includes('@')) {
const [darkMode, setDarkMode] =
const NavMenu = (props) => {
// アクセシビリティを追加
return (
<nav aria-label="メインナビゲーション">
useState(false);
return (
<div className={`${darkMode ?
'bg-gray-900 text-white' :
'bg- white text-gray-800'}`}>
<button
onClick={()
=> setDarkMode(!darkMode)}>
Locofy MCP の可能性
AI エディタと Locofy の強⼒な組み合わせにより、以下のような機能拡張が簡単に実現できる
多⾔語対応
レスポンシブ最適化
パフォーマンス向上
状態管理統合
MCP でコードを拡張する
FPT AI Factory 全体像 ベトナムにおける2つのリージョン クラウド インフラ &PF AIプラットフォーム AI製品 & ⽇本における1つのリージョン NVIDIA 認定のシステム アーキテクチャ AI/ML 開発⽤エコシステム 100以上の統合 AI & クラウドサービス マーケット プレイス FPT AI アプリケーション インテリジェント ドキュメント処理 デジタル顧客 オンボーディング AI メンター 対話型 AI & AI エージェント AI コンタクトセンター FPT AI エージェント エージェントスタジオ プランニング メモリー ツール ガードレール FPT AI STUDIO AI ノートブック モデルハブ モデルファイン チューニング AI マーケットプレイス ファインチューニング済み LLM モデル FPT AI INFERENCE データハブ DB プラットフォーム ベクター DB モデルの 事前トレーニング Modelas-a-Service GPU 仮想マシン マネージド GPU クラスター Model Serving NVIDIA AI Enterprise NVIDIA NGC ™ AIソリューション ワークフロー フレームワーク& 事前学習モデル NVIDIA NeMo ™ AI & データサイエンス 開発ツール NVIDIA Inference Microservices クラウドネイティブ 管理& オーケストレーション FPT AI インフラ GPU コンテナ 組み込みセキュリティと コンプライアンス メタルクラウド ファイル ストレージ NVIDIA Base Command ™ Manager 物理インフラ インフラ最適化 NVIDIA H100/H200 ハイエンドネットワーク https://fptcloud.com/ja/product/fpt-ai-factory-ja/ ハイエンド CPU ⾼性能ストレージ お客様へのオファー インフラ管理 FPT管理・運⽤
FPT AI Factory : ⾼性能 AI インフラストラクチャ AI 開発の基盤となるプラットフォーム • • FPT AI Factory は、最先端のNVIDIA GPU技術を活⽤した、エンタープライズ AI 開発のための包括的なインフラストラクチャとプラットフォームを提供 ⼤規模なAI モデルのトレーニングからデプロイメントまで、エンドツーエンドのサポートを 実現 最新 NVIDIA GPU インフラ H100 H200 80GB HBM2e 141GB HBM3e 4,800 TFLOPS AI 性能 4,000 TFLOPS AI 性能 H100/H200 GPU 搭載サーバー群によるハイパフォーマンスコンピューティング環境 FPT AI Factory サーバーラック NVIDIA Enterprise AI プラットフォーム モデルトレーニング、ファインチューニング、推論の統合環境をオールインワンで提供 主要性能指標 セキュリティとコンプライアンス データ保護とプライバシー要件に対応した安全な AI 開発環境 8.0 PFLOPS 1.8倍 AI 演算総性能 H200 による LLM 学習時間改善
FPT AI Factory : GPU 技術とパフォーマンス H100 vs H200: 次世代ハイパフォーマンス H100 NVIDIA H100 H200 NVIDIA H200 メモリ: メモリ: メモリ帯域幅: FP8演算性能: 80GB HBM2e 3.35 TB/s 4,000 TFLOPS Transformer性能: ベースライン 141GB HBM3e メモリ帯域幅: FP8演算性能: 4.8 TB/s 4,800 TFLOPS Transformer性能: 1.8倍向上 エンタープライズ AI 開発の加速 パフォーマンス⽐較 メモリ帯域幅 最⼤43%向上 H100 エンタープライズ⽤途での独⾃AI モデル 調整を最⼤1.8倍⾼速化 H200 LLM トレーニング速度 H100 カスタムLLMの⾼速ファイン チューニング 最⼤1.8倍⾼速化 ⚡ 推論スループット向上 複数モデルの並列実⾏による応答時間の短縮 ⼤規模データ処理 拡張メモリ容量による巨⼤データセット処理 能⼒の向上 総保有コスト(TCO)の最適化 電⼒効率と性能向上による運⽤コスト削減 H200 最新インフラが開発にもたらす価値 最先端 GPU インフラによって、より⼤規模かつ複雑な AI モデルのトレーニングと運⽤ が可能になり、開発サイクルを短縮 より⾼度な AI コーディング⽀援とマルチエージェント連携を実現
FPT AI Factory デモ : GPU と AI エージェント構築 GPU 性能⽐較 H100 メモリ帯域幅: FP8性能: NVIDIA H100 80GB HBM2e 3.35 TB/s 4,000 TFLOPS Dify によるマルチエージェント構築 H200 メモリ帯域幅: FP8性能: NVIDIA H200 AI エージェント連携フロー 141GB HBM3e 4.8 TB/s 4,800 TFLOPS コード AI デザイン AI テスト AI Dify LLM ファインチューニング時間⽐較 オーケストレーター マルチエージェント開発ワークフロー エージェント設定 実⾏中 コード⽣成 基盤モデル: FPT-LLM-13B-Code API 接続済み - ソースコンテキスト: プロジェクト全体 処理中: コンポーネント連携設定 GPU ファインチューニングログ $ python f i n e t u n e . p y - - model="llama-13b" - - epochs=3 Loading base model: l l a m a - 13b S t a r t i n g f i n e - t u n i n g on 8x NVIDIA H200 GPUs T r a i n i n g complete i n 5m 24s ( v s . H100: 9m 47s) デザイン AI からコード AI へのコンテキスト転送 - 3/5ステップ完了 デモで⽰された価値: 最新 GPU インフラでのカスタムモデル最適化とエージェント連携により、従来 ⽐最⼤80%の開発⼯数削減を実現
NVIDIA H100/H200 性能⽐較 画像⽣成タスクを⾮同期で起動 H100 Stable Diffusion H200 Stable Diffusion
DEMO NVIDIA H100/H200 性能⽐較
NVIDIA H100/H200性能⽐較 H100 H200
NVIDIA Llama Nemotron のご紹介 n NVIDIA Llama Nemotron とは︖ ü NVIDIA が開発した AI エージェント向けのリーズニング モデル ü Llama をベースに、Deepseek-R1 で推論能⼒をト レーニング ü リーズニング機能のオン/オフができる ü ⾼性能、反応早い だが⽇本語は弱い︕
Nemotron を Fine-Tuning する • Nemotron を Fine-Tuning して⽇本語能⼒を上げる • ⽇本の⾦融知識を学習させる Fine-Tuning on “FPT AI Studio” Nemotron-8B nvidia/Llama-3.1Nemotron-Nano-8B-v1 · Hugging Face 16GB + Japanese Language Dataset + izumi-lab/llm-japanese-dataset · Datasets at Hugging Face 2.3GB, 900万⾏ 32xH100で20Hours ⾦融知識 データセット Sakaji-Lab/JaFIn · Datasets at Hugging Face 1.2MB, 1500⾏ 32xH100で数分
DEMO NVIDIA Memotron の Fine-Tuning
Fine-Tuning Before/After
Dify によるマルチエージェント構築デモ : ベトナム料理店の出店計画の作成 • あなたの画期的な新店舗の構想に対して、AI エージェントの猫野と⽝⼭が出店戦略を策定 • 新店舗のターゲットとなる顧客層、単価、出店候補の駅と店舗の内装およびインテリアなどを AI エージェント同⼠の会話で作成 担当タスク︓出店戦略とタスクの策定 担当タスク︓店舗のデザイン 特徴︓少し楽観的な猫 特徴︓ちょっと丁寧な⽝ deepseek-r1 を ⽤いて、競合店の 数や平均⽀出単価、 Stable Diffusion v1.5 を⽤いて、猫野の 空き物件の家賃と ⾯積を参考に収益 分析 戦略を加味した 新店舗のイメージ 画像を⽣成 出店場所と 戦略・タスクを 提⽰ 外⾷コンサルタントの猫野 インテリアコーディネーターの⽝⼭ 今回は互いの意⾒を尊重するように指⽰ コンセプトに 沿った店内 イメージを提⽰
「ベトナム料理店の出店計画作成」 AI エージェントの構造 • 今回 FPT AI Agent 上に構築した AI エージェントのパイプラインは以下の通り • ⼤きく3つのフェーズに分かれており、「ブレスト」「情報収集」「回答⽣成」を順番に⾏っていく Phase 1 店舗コンセプトのブレスト Phase 2 情報収集 Phase 3 専⾨性を⽣かした回答⽣成 Start 会話形式で新店舗のコンセプトについて ブレスト 出店候補地周辺の「競合店の状況」 「空き店舗の状況」を検索 最適な出店計画を 策定 戦略に沿った店内 イメージ画像を⽣成 END
DEMO FPT AI Agent ベトナム料理店の出店計画の作成
Demo
マルチエージェント統合 三つの AI エージェント連携 統合開発ワークフロー CodeVista 要件定義 コード⽣成とリファクタリング - リポジトリ全体のコンテキスト理解 Locofy.ai デザインから UI コード変換 - フロントエンド構築 デザイン AI コード AI UI 設計 API 設計 FPT AI Factory GPU インフラと AI プラットフォーム - モデル最適化 ビジネスメリット 連携シナジー効果 専⾨性を活かした統合開発プロセスの実現 エージェント間のシームレスなコンテキスト共有 開発期間の短縮 最⼤70%の時間削減 品質向上 専⾨性の相互補完 $ コスト効率改善 30-50%のコスト削減 ⾰新性加速 新機能開発の迅速化
マルチエージェント AI 導⼊ロードマップ 1 3 2 評価 1-2週 パイロット 4-6週 4 5 進化継続的 最適化継続的 拡張 2-3ヶ⽉ 評価と計画 パイロット実装 拡張と最適化 現状評価 ツール統合 全社展開 開発プロセスと課題の特定 各 AI ツールの開発環境への実装 複数チーム‧プロジェクトへの展開 PoC 範囲設定 パイロットプロジェクト プロセス標準化 ⼩規模プロジェクトの選定 実際のプロジェクトでの検証 ベストプラクティスとガイドライン確⽴ KPI の設定 フィードバックループ 継続的最適化 成功指標の明確化 結果測定と調整 パフォーマンス測定と改善サイクル 関与: 開発リーダー、アーキテクト 関与: 開発チーム、品質保証 関与: 全開発組織、経営層 期待される成果と主要指標 70% 50% 40% 3倍 開発期間短縮 コード量削減 バグ率低減 機能開発速度 導⼊成功のポイント 段階的アプローチでリスクを最⼩化し、初期の⼩さな成功体験から組織全体へ。チームのスキルアップと変化管理を並⾏して進めることが重要。
未来展望 : マルチエージェント AI の進化 現在 短期 2024-2025 2026-2027 マルチエージェント AI の発展段階 専⾨化と統合 / 現在〜短期 中期 ⻑期 2028-2029 2030+ 重要トレンドとソフトウェア開発への影響 技術トレンド ✓ 個別タスクに特化したエージェントの⾼度な専⾨化 スペシャリストモデル増加 マルチモーダル能⼒拡張 ✓ エージェント間の連携プロトコル標準化 特定領域に特化した⼩型⾼性能モデル コード、デザイン、⾳声など複数形式理解 協調学習アーキテクチャ エッジAI との統合 エージェント間での知識共有と強化 デバイス上での分散エージェント実⾏ ✓ コンテキスト共有とメモリ管理の⾼度化 ⾃律性と協調拡⼤ / 中期 ✓ ⾃⼰学習‧⾃動改善能⼒の向上 ✓ 複雑な⽬標に対する⾃律的タスク分解 ✓ 発展した思考連鎖と推論能⼒ 開発プロセスの変⾰ ⾃⼰発展する開発環境 AI が開発プロセスを観察‧学習し、継続的に最適化する環境の実現 ⼈間- AI ペアプログラミング 創発的インテリジェンス / ⻑期 ✓ 多様なエージェント集合体からの創発的知性 ✓ 従来不可能だった複雑問題の解決 開発者とAIの役割変化、AIが主導しヒントや質問で⼈間が補助する逆転関係 ⾃⼰修復型ソフトウェア 本番環境で稼働する AI エージェントによるバグ検出‧修正およびパフォーマンス最適化 ✓ ⼈間との⾼度な共同作業モデル 間で、マルチエージェントAI システムはソフトウェア開発の初期構想から継続的運⽤までの全フェーズを “ 「今後5年 変⾰し、⼈間開発者はアーキテクチャ設計と創造的⽅向付けに集中できるようになる」 -Gartner予測レポート抜粋(2024)
セキュリティとガバナンス ガバナンスフレームワーク ⚖ セキュリティ対策 ポリシー管理 主要リスクと対策 明確な利⽤規定と運⽤基準 機密データ漏洩 アカウンタビリティ 明確な責任所在と意思決定 規制遵守 各地域の AI 規制への対応 実装プロセス ✓ エンドツーエンド暗号化とプロンプト検証 1 リスク評価とセキュリティ要件の明確化 2 セキュリティガイドラインと責任体制の確⽴ プロンプト/モデル攻撃 ✓ ⼊⼒サニタイズとエージェント間通信の検証 3 全ステークホルダーへのトレーニングと教育 アクセスコントロール脆弱性 主要規制基準への対応 ✓ 最⼩権限の原則と細粒度のアクセス制御 欧州 AI Act リスク管理‧説明責任 監査とコンプライアンス⽋如 NIST AI RMF ISO/IEC 42001 リスク管理フレームワーク AI 管理システム標準 ✓ 包括的なログ記録と改ざん防⽌型監査証跡 倫理的配慮と AI 設計原則 セキュリティアーキテクチャ アプリケーション層 エージェント層 通信‧連携層 統合セキュリティレイヤー コンプライアンス& ガバナンス 脅威監視: データの最⼩化‧匿名化‧差分プライバシー 異常検知‧振る舞い分析 ‧ リアルタイムアラート ⼈間中⼼の設計 公平性の確保 安全性と堅牢性 意思決定プロセスの可視化と追跡 データ層 プライバシー保護: 透明性と説明可能性 バイアス検出‧軽減の継続的実施 “ 重要判断は⼈間が制御可能に設計 厳格なテストと監視による誤動作防⽌ エンタープライズ AI における信頼の重要性 セキュリティとガバナンスは組織全体で AI の信頼性を構築し持続可能な導⼊を実現する基盤
まとめ︓マルチエージェント AI コーディングの⾰新 CodeVista 複数 LLM 対応の AI コーディングアシスタントとして、 リポジトリ全体の⽂脈を理解し、セキュリティやパフォー マンスを考慮した⾼品質なコード開発を⽀援 Locofy.ai デザインからコードへの⾃動変換に特化した LDM を活⽤しデザインをピクセルパーフェクトにコード化 新 MCP サーバー機能によって API インテグレーション とバックエンドロジックとの連携を実現 FPT AI Factory NVIDIA H100/H200 GPU インフラと AI プラット フォームを提供し、カスタムモデルのファインチューニング からデプロイまでをワンストップで⽀援 ビジネスインパクト • • ⏩ マルチエージェントAI の統合により、開発期間を最⼤70%短縮、コスト効率を40-60%向上、品質と⾰新性を両⽴ 開発者体験の向上とコード品質の⼀貫性を実現 次のステップ • • 無料トライアルを開始し、PoC を実施して組織に最適な導⼊⽅法を検証 専任チームがエンタープライズ環境に合わせた導⼊計画をサポート
ご清聴ありがとう ございました︕