最近発表されたSLMって何? 初学者向け

>100 Views

August 09, 25

スライド概要

初学者向けに「最近発表されたSLMって何?」
SLMとはなにか、そもそもLLMって何なのかを解説する資料です

profile-image

これから機会があれば登壇資料を掲載していきたいと思います

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

ダウンロード

関連スライド

各ページのテキスト
1.

最近発表された SLMとはなに? 2025年8月4日時点の情報です

2.

LLM・SLMとは LLM(Large Language Model)とは: ・一般的には数十億〜数百億以上のパラメータを持つ大規模な言語モデル ・幅広い自然言語処理に対応可能 ・ ChatGPTやGeminiなど多くの生成AIサービスの基盤 SLM(Small Language Model)とは: ・数千万〜数十億パラメータ規模の軽量モデル ・特定タスクに特化し、オンデバイスで動作可能

3.

LLMとSLMの比較表 比較項目 LLM SLM パラメータ数 数十億〜数百億 数億未満(例:4億) 用途 汎用的(広範囲) 特化型(タスク指向) 応答速度 遅め(クラウド依存) 高速(オンデバイス) 精度 高(冗長な場合も) 高(特化領域では同等) コスト 高(クラウド推論) 低(ローカル推論) ファインチューニング 難易度高 容易(指示チューニング) 導入環境 データセンター中心 コンシューマーPCでも可能 しかし、PCで動かすなら、 ローカルLLMってあるのでは?

4.

ローカルLLMとの違いは? 違いは「設計思想」と「用途」にあります。 SLM:最初から軽量・高速を目指して設計されたAI ローカルLLM:クラウド向けの大規模モデルをローカルで動かす工夫 たとえるなら: ・SLMは軽自動車(省電力・小回り) ・ローカルLLMは高性能SUV(パワフル・広範囲対応) 利用シーン 向いているモデル ゲーム内キャラの会話 SLM(高速・軽量) 高度な文章生成や知識問答 ローカルLLM(知識量が多い) モバイルや省電力環境 SLM(軽い) オフラインでの高精度処理 ローカルLLM(大規模)

5.

SLMとローカルLLMの違い 比較項目 SLM(Small Language Model) ローカルLLM(Local LLM) モデルサイズ 小規模(数億〜数十億パラメータ) 大規模(数十〜数百億パラメータ) 主な用途 特化型・軽量・高速応答 汎用型・高精度・広範囲対応 推論環境 ローカルPCやエッジデバイス 高性能PCやローカルサーバー 応答速度 高速(リアルタイム処理向き) やや遅め(メモリ・GPU依存) コスト 低(省電力・軽量GPUで動作) 中〜高(GPUメモリ・電力消費) チューニング 指示チューニングが容易 高度なファインチューニングが必要 代表例 NVIDIA Nemotron-4 4B, Phi-3 LLaMA 3, Mistral, GPT-J など

6.

生成AIユーザーへの 影響と向き合い方 個人ユーザー: ・RTX搭載PCでSLMを活用し、クラウド依存せずに高性能AIを利用可能 企業ユーザー: ・カスタマーサービスや業務支援にSLMを導入し、コスト削減と応答品質向上 開発者: ・NVIDIA NIMマイクロサービスを活用し、業務に合わせたAIの組み合わせが可 能 今後は「複数SLMの連携」により、LLMに匹敵する性能を実現する時代へ

7.

まとめ 従来のAI(LLM)は 「頭が良く高性能だが重いAI」みたいな存在でした。 今回、注目を集めた「Small Language Model(SLM)という概念」は、 「軽くて速い、でも賢さも十分なAI」にシフトさせています •例えるなら: • LLM:百科事典を全部持ち歩く博士(重くて遅い) • SLM:必要な知識だけを持ったスマートな助手(軽くて速い) これにより、ゲームやアプリ内で、リアルタイムに自然な会話が可能な キャラクターが実現可能になり 業務でも、問い合わせ対応などにリアルタイム応答が可能になるのではと 期待がもたれます

8.

一般企業でのSLM活用可能性 活用分野 利用例 SLMの利点 カスタマーサポート チャットボット、FAQ自動応 高速応答・ローカル処理でプ 答 ライバシー保護 社内業務支援 社内問い合わせ対応、業務手 軽量でPC上で動作、クラウ 順案内 ド不要 営業・マーケティング 顧客対応スクリプト生成、 メール文案作成 指示チューニングで業務特化 型応答が可能 教育・研修 社員教育用の対話型教材、 ロールプレイ リアルタイム対話で学習効果 向上 製造・保守 作業手順のナビゲーション、 オフライン環境でも動作可能 トラブルシュート支援 な点が強み 医療・福祉 患者対応支援、問診補助 プライバシー重視のローカル 処理が可能

9.

用語一覧と説明 用語 説明 LLM(Large Language Model) 非常に大きなAIモデルで、文章の理解・生成・翻訳など幅広い言語処理が可能。数十億〜数 百億の「パラメータ(学習項目)」を持つ。 SLM(Small Language Model) 小型で軽量なAIモデル。特定のタスクに特化しており、パソコンやスマホなどでも動作可能。 高速で省電力。 ローカルLLM 本来クラウドで動かすような大規模AIモデルを、ローカル環境(自分のPCなど)で動かす工 夫をしたもの。 パラメータ AIが学習するための「知識のかけら」。数が多いほど複雑なことができるが、動作も重くな る。 推論(Inference) AIが学習した知識を使って、質問に答えたり文章を生成したりする処理のこと。 オンデバイス推論 クラウドではなく、手元のPCやスマホなどでAIを動かすこと。通信不要で高速。 ファインチューニング 既存のAIモデルに追加学習をさせて、特定の目的に合わせて性能を調整すること。 指示チューニング (Instruction Tuning) 「こういうふうに答えてね」といった指示を与えて、AIの応答スタイルを調整する方法。 NVIDIA ACE NVIDIAが開発した、ゲームなどで使えるリアルタイムAIエージェントの技術。SLMを活用し ている。 NIM (NVIDIA Inference Microservice) NVIDIAが提供するAI機能の部品セット。SLMやLLMを組み合わせて柔軟に使える。 RTX搭載PC NVIDIAのRTXシリーズGPUを搭載したパソコン。AI処理に強く、SLMの動作に適している。