SLM(小規模言語モデル)とは? LLMとの違いやメリット、活用シーンを解説


2026年4月6日掲載

SLM(小規模言語モデル)とは? LLMとの違いやメリット、活用シーンを解説

生成AIの活用が進む中で、LLM(大規模言語モデル)を前提とした導入が一般的になりつつあります。しかし、全ての業務に高性能なモデルを適用することが最適とは限りません。業務内容や要件によっては、より軽量で効率的なモデルの方が適しているケースもあります。その選択肢として注目されているのが、SLM(小規模言語モデル)です。
本記事では、SLMとLLMの違いを整理しながら、活用シーンを中心にAIモデルの使い分けについて解説します。

この記事の監修者

ソフトバンク株式会社 IT統括 AIテクノロジー本部 AI&データ事業推進統括部 Axross事業部 サービス開発課 中村亮太

ソフトバンク株式会社
IT統括 AIテクノロジー本部 AI&データ事業推進統括部 Axross事業部 サービス開発課
中村亮太

ソフトバンク公式YouTubeでも活躍中! ぜひチェックしてみてください。

目次

SLMとは?

SLM(Small Language Model)とは、パラメーター数を抑えて設計された小規模な言語モデルです。必要な計算資源を抑えながら軽量に動作し、特定の用途や業務に特化して活用される点に特長があります。
この特性により、SLMは一般的なPCやエッジデバイス上でも動作可能であり、リアルタイム処理やオフライン環境での活用にも適しています。また、用途を限定して設計されることで、特定の業務やルールに基づいた処理において安定した出力を得やすい点も特長です。

パラメーター数が少ないということは、AIの構造がコンパクトであり、動作に必要な計算資源も少なくて済むことを意味します。例えば、最新の大規模なAIを動かすにはデータセンターのサーバーが必要ですが、SLMであれば市販のノートPCやスマートフォンでも動作します。

規模が小さいからといって性能が低いわけではなく、法律や医療といった特定の専門知識を集中的に学習させることで、その分野において高い精度を発揮します。つまり、広く汎用的な知識を持つのではなく、特定の業務に特化したモデルと言えます。

SLMの特長
詳細
規模感
数億〜数十億のパラメーター数で構築される
動作環境
スマートフォンや一般的なPCなど小規模なデバイスで動作可能
得意分野
事前に学習させた特定の専門領域や定型的なタスク

LLMとの違い

LLM(Large Language Models)とSLMの最大の違いは、汎用性と必要とする計算資源の規模にあります。

LLMは数千億から数兆という膨大なパラメーターを持ち、インターネット上のあらゆる情報を学習しているため、質問や入力に対して柔軟に応答できるモデルです。一方で、その規模の大きさから、学習や運用には大きな計算資源が必要になります。

これに対してSLMは、用途を限定して処理を行うモデルです。日常的な会話や複雑な推論ではLLMに劣る場合もありますが、特定の業務やルールに基づいた処理においては、より少ない計算資源で効率的に活用できます。

SLMとLLMの違いを整理した画像

▶関連記事:LLM(大規模言語モデル)とは? いまさら聞けない基礎知識を解説

なぜ今SLMが注目されているのか?

SLMが注目されている背景には、AIの活用環境や要件の変化があります。

なぜ今SLMが注目されているのかを整理した画像

大規模なAIを運用する際のコストや計算資源の負担が課題となる中で、より効率的な運用が求められるようになっています。

LLMの運用コストと計算資源の肥大化

近年、AIの性能向上を目的としてモデルの大規模化が進んできましたが、それに伴う運用コストや計算資源の負担が大きな課題となっています。
LLMを自社専用にカスタマイズする場合、高性能なGPUを多数搭載したサーバーが必要となり、運用コストが大きくなる傾向があります。
こうした背景から、全ての業務にLLMを適用するのではなく、用途に応じてモデルを使い分ける必要性が認識されつつあります。

エッジデバイスでのAI実行のニーズ

企業がAIを現場で活用するにあたり、インターネットを介さずに手元の端末(エッジデバイス)で処理を完結させたいというニーズが高まっています。
工場にあるセンサーの制御端末や、営業担当者が持ち歩くノートPC、さらにはスマートフォンなど、通信環境に依存できない場面でもAIを活用したいケースが増えています。リアルタイムな判断が求められる自動運転技術や、接客中の音声翻訳など、スピードが命となるビジネスシーンにおいて、エッジデバイス環境でも動作可能なSLMは有効な選択肢の一つとなります。

▶関連記事:エッジAIとは? リアルタイム処理とローカル実行を実現する次世代アーキテクチャーを解説

SLMを活用するメリット

運用コストやセキュリティ、特定領域での処理精度といった観点から、SLMは業務で活用しやすい特性を持っています。

運用コストと環境負荷を抑えやすい

SLMを導入する最大のメリットは、金銭的なコストと環境への負荷を抑えられる点です。
パラメーター数が少ないSLMは、複雑な計算を必要としないため、一般的な企業の社内サーバーや市販のパソコンレベルの機材でも動かすことができます。外部のクラウドサービスに依存せず、都度のAPI利用料やデータ転送料金が発生しにくいため、運用を続ける中でコストを抑えやすい傾向があります。

機密情報を守るローカル環境での稼働

社外のネットワークにデータを送信できない企業にとって、ローカル環境で動作するSLMは有効な選択肢となります。
医療機関における患者のカルテ情報や、金融機関の顧客データ、製造業の未公開の設計図などは、セキュリティポリシー上、パブリッククラウドに送信することが制限されるケースがあります。LLMを利用する場合、入力したプロンプトが学習データとして二次利用されてしまうリスクや、通信経路での情報漏洩リスクを完全に排除することは困難です。
しかし、自社の閉じたネットワーク(オンプレミス)内にSLMを構築すれば、データを外部に出さずに運用することが可能になります。こうした特性は、厳格なコンプライアンスが求められる業界において有効とされています。

特定の専門分野における高い精度

SLMは、範囲を絞って集中的に学習させることで、特定の分野において高い精度を発揮します。汎用的なLLMは幅広い知識をもとにさまざまな質問に対応できる一方で、専門的な領域では一般的な回答にとどまる場合や、事実と異なる内容を生成する可能性もあります。
一方でSLMは、自社の製品マニュアルや過去の技術資料をもとに学習させることで、業務に即した回答を生成しやすくなります。例えば、自社独自の社内用語や特殊な業務フローが含まれる質問に対しても、より適切に対応できるようになります。

SLMを活用するメリットを整理した画像

SLMが有効となる業務シーン

SLMは軽量に動作するという特性から、特定の条件や制約がある環境において有効な選択肢となります。
代表的なケースとしては、次のような場面が挙げられます。

・機密データを外部に送信できない業務
金融機関や医療機関、製造業の設計情報など、外部クラウドへのデータ送信が制限される環境では、ローカルで処理を完結できるSLMが活用されるケースがあります。

・リアルタイム性が求められる処理
工場の制御や設備監視など、即時の判断が必要な場面では、通信を介さずに処理できる軽量なモデルが適しています。

・通信環境に依存できない現場業務
屋外作業や移動体など、常時安定した通信を前提とできない環境では、オフラインでも動作可能なSLMが選択肢となります。

・コストを抑えながら継続的に運用する必要がある場合
常時稼働する業務や大規模に展開するシステムでは、計算資源を抑えられるモデルの方が運用しやすい傾向があります。

・処理内容があらかじめ定まっている業務
社内規定の問い合わせ対応やマニュアルに基づく案内など、ルールが明確な業務では、特化したモデルとしてSLMが活用されることがあります。

SLMが適さないケース

SLMは、処理対象となる情報や範囲をあらかじめ限定できる場合に有効なモデルですが、扱う情報の範囲が広く、事前に限定できないケースでは適用が難しくなります。

例えば、市場動向や一般的な知識を含む質問のように、参照すべき情報が広範囲にわたる場合には、より多くの知識を持つモデルが求められます。また、処理内容が固定されておらず、状況に応じた柔軟な対応が必要な業務においても、限定された知識だけでは十分に対応できないことがあります。

このように、SLMはすべての業務に適用できる汎用的なモデルではなく、扱う範囲や処理内容を限定できるかどうかが適用の分かれ目となります。範囲を限定できない場合には、LLMを活用する、あるいは用途に応じて両者を組み合わせるといった設計が求められます。

代表的なSLM

Microsoft 、Google 、IBM といった世界のトップ企業が、それぞれ異なるアプローチでSLMを開発・提供しています。ここでは、代表的なモデルの特長を紹介します。

Microsoft の「Phi」

Microsoft が提供する「Phi(ファイ)」シリーズは、パラメーター数を抑えつつ、高品質なデータで学習されている点が特徴です。比較的小規模でありながら、一定の推論性能を持つとされており、限られたハードウェア環境でも動作可能なモデルとして位置づけられています。

Google の「Gemma」

Google が開発した「Gemma(ジェンマ)」は、同社の「Gemini」の技術をベースにしたオープンな小規模モデルです。安全性への配慮がなされており、世界中の開発者が用途に応じて自由にカスタマイズして利用できる点が特長です。

IBM の「Granite」

IBM が展開する「Granite(グラナイト)」シリーズは、ビジネス用途に特化して設計されたSLMです。著作権やコンプライアンスに配慮したデータで学習されており企業での利用を意識したモデルとされています。

まとめ

生成AIの活用が広がる中で、重要になっているのは単一のモデルの性能ではなく、用途に応じて適切なモデルを使い分けるという考え方です。
SLMは、特定の業務や要件に適した処理を担うモデルとして位置づけられ、LLMと組み合わせて利用されることで、その価値を発揮します。すべての処理を大規模なモデルに集約するのではなく、それぞれの特性に応じて役割を分担することが現実的な選択肢となりつつあります。
AI活用は「どのモデルが優れているか」を比較する段階から、「どの用途にどのモデルを適用するか」という視点が求められるようになっています。

AIによる記事まとめ

この記事は、SLM(小規模言語モデル)の特長とLLMとの違い、適用される業務シーンについて解説しています。軽量に動作し特定の用途に適したSLMと、汎用的に幅広い入力に対応するLLMの違いを整理し、用途や制約に応じて適切に使い分ける考え方と、効率的なAI活用の方向性を示しています。

※上記まとめは生成AIで作成したものです。誤りや不正確さが含まれる可能性があります。

関連記事

関連サービス

関連ページ

関連セミナー・イベント

Future Stride
ビジネスブログ「Future Stride」編集チーム

ビジネスブログ「Future Stride」では、ビジネスの「今」と「未来」を発信します。

DXや業務改革をはじめとしたみなさまのビジネスに「今」すぐ役立つ最新トレンドを伝えるほか、最先端の技術を用いて「未来」を「今」に引き寄せるさまざまな取り組みにフォーカスを当てることで、すでに到来しつつある新しいビジネスの姿を映し出していきます。

/common/fragments/sidebar

同じカテゴリーの記事をみる

Tag
AI , 用語解説,
Display
part