来るオンデバイスAIの時代|gpt-ossに見るSLMトレンドの幕開け

2025-08-27

来るオンデバイスAIの時代
来るオンデバイスAIの時代

ライター:小澤健祐

2025年8月、OpenAIがAI業界に大きな波を起こしました。発表されたのは「gpt-oss-120b」と「gpt-oss-20b」という2つの最先端オープンウェイト言語モデルです。

これまでのOpenAIは、ChatGPTをはじめとするモデルをクラウド経由でのみ提供し、内部構造や学習済みの重みを外部に公開しない方針を貫いてきました。

しかし今回は、商用利用や改造が自由に認められるApache 2.0ライセンスでモデルの重みを配布し、企業や個人が自前のPCやサーバーにインストールして動かせるようにしたのです。レストランがレシピを公開せず、料理のみを提供していたものが、レシピも合わせて公開し、各家庭でもその料理を楽しめるようになったようなものです。


モデル仕様

モデル名 パラメーター数 性能の目安 必要環境 特徴
gpt-oss-120b 1,170億 コアReasoningベンチマークで「OpenAI o4-mini」と同等 80GB GPU 1基 複雑な推論や高度な業務に対応。高精度な回答性能
gpt-oss-20b 210億 一般ベンチマークで「OpenAI o3-mini」と同等 16GB GPUまたはエッジデバイス ローカル推論、迅速な反復開発、ネット接続不要のアプリ運用に最適

両モデルとも同規模の他社オープンモデルを上回る性能を示し、ツールの使用、関数呼び出し、思考連鎖(CoT)推論、Web検索、Pythonコード実行など幅広い機能に対応します。特に医療分野評価のHealthBenchでは、OpenAI独自モデル(o1やGPT-4o)を上回る結果も記録しています。


これらのモデルは、強化学習とOpenAI内部の最先端モデル群(o3など)の手法を組み合わせて学習されています。さらに、安全性試験や外部専門家によるレビューを経て、社内最新モデルと同等の安全基準を満たしました。OpenAIは、この取り組みを「オープンモデルにもクラウドモデル並みの安全基準を適用するための新しい方向性」と位置付けています。

では、なぜこれまでオープン化を避けてきたOpenAIが、ここで舵を切ったのでしょうか。その背景には複数の理由があります。

まず、安全性リスクの問題です。大規模モデルを完全に公開すると、偽情報の大量生成やサイバー攻撃など悪用の可能性が高まり、利用制御が難しくなります。次に、商業的優位性の維持があります。クラウド経由の利用料はOpenAIの収益基盤であり、モデル自体を公開すれば競合に使われることでその基盤が揺らぐ恐れがありました。また、品質とブランドの保護も重要です。誰でも改変可能なオープンモデルでは、OpenAIの名前で品質や倫理基準を保証することが難しく、不適切な利用によるブランド毀損のリスクがつきまといます。

それでも今回オープン化に踏み切ったのは、外部環境の変化が大きな要因です。MetaのLLaMAやMistral、GoogleのGemmaといった高性能オープンモデルが相次いで登場し、開発者や企業がそちらへ流れる兆しが見えてきました。さらに、GPUやエッジデバイスの性能向上によってローカル実行の需要が急増し、量子化やMixture-of-Expertsといった軽量化技術の発展により、小型モデルでも実用レベルの性能を発揮できるようになったことも大きいです。そして、安全性評価の手法が成熟し、オープンモデルでも一定の安全基準を維持できる体制が整ったことが決定打になりました。

今回のgpt-ossは、単なるモデル公開ではなく、OpenAIの今後の戦略を示しています。クラウドモデルとオープンモデルを併存させ、ユーザーがコスト・速度・性能のバランスを選べるハイブリッド戦略を推進すること。16GBから80GBクラスのGPUで動作するモデル群を整備し、オンデバイスやオンプレミスの市場を取り込むこと。オープンモデルにもクラウドモデルと同等の安全基準を適用し、業界全体の安全ガイドライン形成に貢献すること。そして、AI Sweden、Orange、Snowflakeといった初期事例を産業別ソリューションへ展開し、API連携を通じて企業や組織のワークフロー全体をカバーするエコシステムを築くことです。

こうして見ると、gpt-ossは単なる技術発表ではなく、クラウドとローカルを結びつけるハイブリッドAI時代の幕開けを告げる戦略的なリリースであることがわかります。次章では、この戦略の中核をなすSLMの価値と役割を、日常生活のレベルまで噛み砕いて解説していきます。

gpt-ossはSLM(Small Language Model)と呼ばれるカテゴリに属します。SLMは、従来のLLM(Large Language Model)に比べてサイズが小さく、動作も軽いAIです。大規模モデルが必要とする膨大な計算資源や電力を大幅に減らしつつ、日常的なタスクや特定分野での活用には十分な性能を発揮します。

例えるなら、LLMは「大型観光バス」、SLMは「小型タクシー」です。 観光バスは多くの人を一度に運べますが、大きな車庫が必要で燃費も高く、狭い道は通れません。一方、小型タクシーは乗せられる人数は限られますが、小回りがきき、燃費も良く、自宅の駐車場に置くこともできます。

この違いが、AIの使われ方にも大きく影響します。LLMは幅広い分野で高い汎用性を発揮しますが、クラウド環境と大規模な計算資源が必須です。一方のSLMは、利用する場所や端末を選ばず、手元のPCやスマホでも動かせます。

省電力 ― 「学習時」と「利用時」の違いを理解する

AIの電力消費については、学習時(モデルを作るとき)と利用時(推論するとき)で意味が異なります。
SLMが省電力なのは、特に利用時の話です。

学習はどのモデルでも膨大な電力を使います。しかし一度学習を終えたモデルを使うとき、SLMは必要な計算量が少なく、結果として消費電力も低く抑えられます。

応答速度 ― ネット経由の待ち時間がない

クラウドAIを使う場合、質問をサーバーに送り、処理結果を受け取るために必ず通信が発生します。
この「行って戻ってくる」時間が、応答の遅さにつながります。

SLMは手元の端末で完結するため、この通信待ちがほぼゼロになります。たとえばクラウドでは数秒かかる処理が、SLMなら0.3〜1秒で終わることも珍しくありません。音声アシスタントやリアルタイム翻訳のように、会話のテンポが重要な場面では、この違いが大きな意味を持ちます。

プライバシー保護 ― 情報が外に出ない安心感

クラウドAIは、処理のために入力データを外部サーバーに送ります。そのため、どれだけセキュリティが高くても「外に出す」という事実が残ります。

SLMは端末内で処理が完結するため、データは外部に送られません。医療カルテ、金融取引、社内機密文書など、情報漏えいのリスクを極力減らしたい分野では特に有効です。

日常でのSLM活用イメージとAIエージェントへの広がり

SLMは、ただ端末上で文章を生成するだけの存在ではありません。もしこの小型で高性能なAIが家や職場のシステムと連携すれば、日常のあらゆる場面に深く入り込みます。例えば、朝、冷蔵庫のドアを開けた瞬間に在庫情報がSLMに送られ、その日の栄養バランスや家族の好み、天気予報まで考慮した夕食の提案がスマホに表示される。帰宅途中に立ち寄るスーパーの混雑状況まで予測して、買い物リストを自動で最適化してくれる。

仕事の場面では、パソコンに保存された過去の契約書やマニュアルをSLMが事前に理解しておき、商談中に顧客の質問が出た瞬間に最適な答えや参考資料を提示する。インターネット接続が不安定な現場でも、社内ネットワークやローカルストレージのデータを直接参照できるため、判断の遅れがなくなる。製造業の現場では、機械のセンサー情報や稼働ログと接続され、異常が発生した瞬間に修理手順を提示するだけでなく、必要な部品の在庫状況や配送手配まで自動で進めてくれる。

こうした使い方は、単に「質問に答えるAI」ではなく、複数のシステムを横断的につなぐAIエージェントの形に進化していきます。SLMはオンデバイスで動作するため、外部との通信を制限しながらも、社内システム、IoT機器、クラウドサービスなどと安全に統合できます。たとえば医療現場では、電子カルテシステムと連動し、診察中の医師に患者の既往歴や検査結果を瞬時に表示し、治療方針の選択肢まで提示する。法律事務所では、判例データベースやスケジュール管理ツールと接続して、訴訟戦略の提案や期日のリマインドを行う。家庭では、家電やスマートホーム機器と統合し、朝の照明や室温の調整、ゴミ出し日の通知、家族の予定に合わせた食事計画まで一貫して行う。

こうした統合が進めば、SLMは「自分の端末の中で動く賢いアシスタント」から、「複数の情報源と機器を組み合わせて行動する自律的なパートナー」へと変貌します。クラウドAIとの併用で知識や計算能力を補完しながらも、手元のデバイスで意思決定や初動対応を行う――そんなハイブリッドなAIエージェントが、これからの生活やビジネスの標準になるかもしれません。

理論や仕様だけではなく、実際にgpt-ossを動かしてみることで、その特徴がより鮮明に見えてきます。今回は、LM Studioというローカル実行環境を使い、PC上でgpt-oss-20bを動かしてみました_インターネットには一切接続せず、ダウンロードしたモデルを手元で直接実行しています。これにより、応答速度や処理の安定性、そしてオフライン動作の安心感をリアルに体験することができました。

最初のテストは、単純な数値比較という基礎的な推論タスクです。

最初のテストは、単純な数値比較という基礎的な推論タスク
最初のテストは、単純な数値比較という基礎的な推論タスク

問いは「9.9と9.11はどちらが大きいか」というもの。9.9 は 9.90 と表せるため、9.90 と 9.11 を比較すると 9.90 の方が大きく、したがって答えは 9.9 になります。モデルはわずか0.4秒の思考時間でこの結論を返し、推論速度は73.52トークン/秒、初回応答は0.32秒と極めて速いものでした。この速度感は、インタラクティブなやりとりやリアルタイム処理を必要とする場面で強みを発揮します。一方で、こうした単純比較でも、プロンプト設計や補助的な説明を加えることで推論の透明性を高める工夫は依然として有効です。なおこの問いは最新のOpenAIモデルであるGPT-5でも間違えることがあるものです。

次に試したのは、創造的かつ構造化されたコンテンツ生成です。

次に試したのは、創造的かつ構造化されたコンテンツ生成
次に試したのは、創造的かつ構造化されたコンテンツ生成

「生成AIのイベントを企画して」という依頼に対し、モデルはイベント名、開催日程、場所、コンセプト、テーマ軸、詳細なタイムテーブルまで一貫して提案しました。生成された企画案は「生成AI×クリエイティブフェス『FutureCanvas 2025』」というタイトルで、開催期間や会場(東京ビッグサイト)まで具体的に設定されており、午前の基調講演から午後のワークショップや体験コーナーまで流れを網羅していました。短時間でこれだけ整った企画骨子を提示できるのは、SLMであっても十分な構造化生成能力を持っている証拠です。

この2つの事例は、gpt-oss-20bが「単純なロジック処理」と「複雑な文章生成」という異なる性質のタスクをいずれも高速にこなせることを示しています。推論の精度や表現の調整は状況によって必要ですが、ローカル環境での遅延が少ない状態で高い生成能力を両立できる点は、実運用の大きな武器になります。

特に、このモデルを各種システムと連携させれば、社内データベースを引きながら瞬時にレポートを作成したり、イベントやプロジェクトの計画を即時に提示するAIエージェントとしても活用できる可能性があります。

LM Studioでのgpt-oss-20bの検証に続き、今度はより大型のgpt-oss-120bを、日本HPのハイエンドワークステーションに載せて実行してみました。使用したのは、ワークステーション「HP Z8 Fury G5 Workstation」に搭載された「NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition (96GB)」で、完全ローカル環境下で動作しています。

結果は、まさに“今まで見たことのない速さ”でした。推論速度は112.15トークン/秒、総処理トークン数は2787トークン、初回応答までの時間はわずか0.30秒となり、処理は滑らかに完了しました。

日本語の場合、1文字が1〜3トークンに分割されることが多く、文章の内容によって換算は変わります。このため、112.15トークン/秒という数値は、おおよそ毎秒40〜110文字程度の日本語を生成している計算になります。つまり、短い指示なら一瞬で全体が出力され、長文でも人が読むスピードを超える速度で生成が進みます。クラウド経由のモデルで発生する通信待ちがないため、入力を確定した瞬間に文字が流れ出すような感覚が得られます。

このパフォーマンスは、単にハードウェアの性能だけでなく、gpt-oss-120bが採用するMixture-of-Experts構造と最適化された推論アルゴリズムの効果によるものです。必要な「専門家ノード」だけを呼び出す設計により、巨大なモデルでありながら処理の無駄を極限まで減らし、速度と精度を両立させています。

こうした超高速推論がローカル環境で可能になったことで、120B(1200億パラメーター)クラスのモデルも“クラウド専用”ではなくなりました。これからは、データを外に出せない現場や通信環境が限られた場所でも、最高クラスのモデルをそのまま活用できる時代が本格的に始まると感じます。

gpt-ossの登場は、オンデバイスAIとSLM市場の幕開けを象徴する出来事でした。しかし、これは始まりにすぎません。すでに世界各国のAI企業や研究機関が、独自のSLMを開発・強化し始めています。MetaのLLaMAやGoogleのGemma、 AlibabaのQwen 、Mistralの軽量モデル群などは、その代表例です。こうした流れの中で、今後数年間はSLM分野の競争がさらに激化していくことが確実です。

単に「小型で速いモデル」を作るだけでは差別化は難しくなります。これからのSLMには、汎用性を追求する方向と並行して、特定業界や特定用途に深く特化させる方向性が求められます。例えば、医療用に最適化されたSLMは診断支援やカルテ解析に特化し、製造業向けのSLMは機械制御や生産ラインの異常検知に強みを持たせるといった具合です。業界特化型モデルは、汎用モデルよりも学習データや推論ロジックを絞り込めるため、軽量化と高精度化を同時に実現できる可能性があります。

さらに重要なのは、SLMを単体で終わらせず、既存の業務システムやIoTデバイス、クラウドサービスと密接に連携させることです。オンデバイスでの即時応答性と、外部システムから得られる最新データや高度な計算能力を組み合わせれば、単なる会話エンジンを超えた「行動できるAI」、すなわちAIエージェントとしての価値が際立ちます。顧客管理システムと連携する営業支援エージェント、工場センサーと連動する保守点検エージェント、家庭内のスマート家電を統合制御する生活支援エージェントなど、その応用範囲は急速に広がるでしょう。

この潮流の先には、ロボティクスAIとの融合があります。SLMを搭載したロボットは、クラウドに依存せず現場で即時判断を下せるため、物流倉庫でのピッキング作業や製造ラインでの品質検査、農業用ロボットによる収穫や病害検知など、人間の指示を待たずに自律的な行動が可能になります。特に、動きながらセンサーで取得したデータをその場で処理し、環境変化に即応する能力は、クラウド型AIでは実現が難しい領域です。SLMは、ロボットの「脳」を手元に置くことで、移動や作業の自由度を飛躍的に高めます。

SLMの強みは、軽量性とローカル実行による自由度にあります。この特性を活かして、開発者や企業は「どの環境で」「どのデータとつなぎ」「何を自動化するか」という視点からモデルを設計していく必要があります。今後は、性能競争に加えて、使い勝手や導入しやすさ、そして既存の情報資産やロボティクスとの親和性が、SLMの価値を決める大きな要素になるはずです。

オンデバイスAIは、クラウド時代の補完ではなく、新たな主戦場の一つになろうとしています。これからの数年は、SLMがどこまで実用領域を広げ、どのように社会や産業に根付いていくのか。その動きを見守るだけでなく、自らの現場で試し、最適化し、価値を引き出すことが、SLM時代の勝者になるための条件となるでしょう。

HPは、ビジネスに Windows 11 Pro をお勧めします。

Windows 11 は、AIを活用するための理想的なプラットフォームを提供し、作業の迅速化や創造性の向上をサポートします。ユーザーは、 Windows 11 のCopilotや様々な機能を活用することで、アプリケーションやドキュメントを横断してワークフローを効率化し、生産性を高めることができます。

組織において Windows 11 を導入することで、セキュリティが強化され、生産性とコラボレーションが向上し、より直感的でパーソナライズされた体験が可能になります。セキュリティインシデントの削減、ワークフローとコラボレーションの加速、セキュリティチームとITチームの生産性向上などが期待できる Windows 11 へのアップグレードは、長期的に経済的な選択です。旧 Windows OSをご利用の場合は、AIの力を活用しビジネスをさらに前進させるために、Windows 11 の導入をご検討ください。

※このコンテンツには日本HPの公式見解を示さないものが一部含まれます。また、日本HPのサポート範囲に含まれない内容や、日本HPが推奨する使い方ではないケースが含まれている可能性があります。また、コンテンツ中の固有名詞は、一般に各社の商標または登録商標ですが、必ずしも「™」や「®」といった商標表示が付記されていません。

ハイブリッドワークに最適化された、Windows 11 Pro+HP ビジネスPC

ハイブリッドなワークプレイス向けに設計された Windows 11 Pro は、さらに効率的、シームレス、安全に働くために必要なビジネス機能と管理機能があります。HPのビジネスPCに搭載しているHP独自機能は Windows 11 で強化された機能を補完し、利便性と生産性を高めます。

詳細はこちら

日本HP 公式オンラインストア
HP Directplus
用途やニーズでカスタマイズ可能

法人向けPC国内シェアNo.1。直販サイト限定の多彩なラインナップと特別キャンペーンをお見逃しなく。信頼のパフォーマンスと強固なセキュリティを備えた最新モデルを、1台からお得にお見積り可能。ビジネスを加速させる最適なPCソリューションを、あなたの手に。

HPのダイレクトストアはこちら

「AIの進化と活用事例」の人気記事

AIの進化と活用事例