元インテルの安生氏が提供するホワイトペーパーがHPからリリースへ
2025-08-29

そこにはいつも インテル、はいってる
Copilot+ PC はこれまでで最も速く、最も高性能な Windows PC。
「インテル、はいってる」ならさらに充実。
先日、「賢いアプリが、業務のAI活用を変える―AI PCで実現するローカル実行戦略の核心」というタイトルのホワイトペーパーをHPからリリースした安生氏。あらゆる企業がローカル環境でのAI活用を始めようとしている中、「なぜ、今、ローカルAIなのか」という問いかけへの答えがそこに記されている。このホワイトペーパーを入手する前、あるいは後でも良いので、本記事と合わせて読むことで、安生氏が思い描く、近未来のローカルAI活用の全容が見えてくるはずだ。それでは、安生氏とのインタビューをお届けしたいと思う。
取材:中山 一弘
インテル社に所属していたが2024年に退職。サイバーセキュリティ企業を経て、現在はリサーチ会社に所属しコンサルタントとして活動している。その傍ら、創業した「株式会社K-kaleido」にてAI PC向けアプリケーションの開発や共通基盤の設計を推進。ソフトウェアエンジニアが活躍できる場を提供し、価値向上に取り組んでいる。
(https://k-kaleido.com)
AI PCの今後のポジショニングはどうなる?
はじめに、今回ホワイトペーパーの「賢いアプリが、業務のAI活用を変える―AI PCで実現するローカル実行戦略の核心」に寄稿ありがとうございました。企業がAI活用においてローカル環境を選択すべきメリットや背景、さらには生成AI開発に至るまで読者のすべてに大きなヒントを与えてくれる内容となっていると思います。ホワイトペーパーに書かれていたとおり、ローカルAI活用が進んでいくと思いますが、AI PCも今後の主流になっていくのでしょうか?
2023年末に最初の発表があり、現在1年半が経過しましたが、ハードウェアの普及はとても進んでいる状況といえるでしょう。一方で、AIアプリで実用的なもので目立った物がないのが現実で、そういった意味ではユーザーの期待と現実にギャップがあるのが現在の姿ではないでしょうか?
インテル® Core™ Ultra プロセッサー世代のNPUを持った次世代プロセッサーに対する評価やそれを搭載するPCの売れ行きをみれば、今後はまさにAIアプリの実用性が今後のカギとなるのは明らかで、特にローカル環境、例えばAI PC上で動作するアプリがどこまでできるのか、今後はサービスを提供する側が実証していく必要があると考えます。
企業単位ではローカルSLM/LLMなどの実用性を高める研究や開発が具体性を帯びながら進んでいますが、AI PC向けのアプリケーション開発は誰が担うべきなのでしょう?
AI PCに必須の要件とは?
まさに今回のホワイトペーパーでは様々なツールを使って評価していただいていますが、その中で安生様が気づいたハードウェアの要件などはありましたか?
まず感じたのはメインメモリの量ですね。Windows 11 上で動作させる場合、生成AIモデルだけで20GB消費します。Windows側にもリソースはもちろん必要なので、16GBでは明らかに不足しています。やはりAI PCに搭載するメインメモリに関して32GBは欲しいところです。
もちろんSLMにしてデータ規模を縮小することもできますが、今度は機能としての実用性が損なわれていきます。扱う生成AIツールのサイズ的なバランスを考えればメインメモリだけは多めに確保していただくのが安全です。
また、ストレージに関しても開発用途では2TBでも不足してくるでしょう。ユーザー側でも512GBでは足りないこともあるので、AI PCでローカルAI活用を考えるなら、こちらも1TB以上の大容量タイプを選択したほうが良いです。特に現在主流となっているノートタイプのAI PCはメインメモリにしてもストレージにしても後から追加ができないので、ハードウェア構成は購入時にしっかり先を見据えて判断したいところです。
プロセッサーにはインテル® Core™ Ultra プロセッサーを使用されましたが、GPUとNPUの使い分けにはコツなどあったのでしょうか?
AIアプリ開発に対する提案
ハードウェアについては大分スペックが絞れてきますが、安生様が述べているAIアプリ開発において何かお気づきになった点はありますか?
複数のAIアプリを同時に動作させる場合、メモリリソースの競合が発生するため、Model Hubを使ってモデルを共有し、アプリごとに独立したモデルを持たないようにしたほうが良いと考えます。K-kaleidoがプロデュースする「Local AI Model Hub」は個人のエンジニアが開発したものですが、そこから製品化へ至る道筋を示すモデルケースとなっています。このアプリは、開発者に提供する共通基盤としての「ローカルAIモデルのハブ機能」を提供し、API経由でローカルモデルにアクセスできる仕組みを持っています。これを利用することで開発者はハードウェアや最適化を意識することなく、アイデアの具現化に集中できます。
Model Hubはどのようなアプリ開発に使いましたか?
例えば Visual Studio Code のプラグインとしてModel Hubにアクセスする仕組みを開発し、動作させることも可能です。既存のエディターなどにプラグインとして組み込めばプログラマーが違和感なくローカルAIにアクセスできます。
例えば、今このインタビュー中にK-kaleidoでプロデュースした自動翻訳ツールを走らせていますが、これも独立したエンジニアによる開発でありながら、K-kaleidoのプロデュースによって事業化フェーズまで進んでいます。このようにインターネット接続が無い状態でも軽快に私たちの会話をリアルタイムにテキスト化しています。日本語の文字起こしと同時に英語として翻訳もされるので、外国の方が会話を瞬時に理解することができますし、その逆(英語→日本語)もサポートしています。
この方法だとこうした対面での会話だけでなく、YouTubeなどの音声でも同じことができますから、海外との会議や商談、あるいは対面での多言語コミュニケーションにも応用できるよう改良していけばよいのです。この自動翻訳ツールに関しては2025年9月末にはK-kaleidoのウェブサイト上アプリストアから提供開始予定で、エンジニアとともに最終段階の検証フェーズに来ています。
開発者と利用者が共に価値を共有する
ちょっとしたアイデアがどんどんAIアプリに組み込まれていくことで、よりブラッシュアップされていくのですね。世間では「AIのキラーアプリはどれになるのか」といった議論もありますが、それについてはどのようにお考えですか?
キラーアプリという一つのものに絞るのではなく、ビジネスには経理や営業、マーケティング、人事など様々な部門があってはじめて成り立つ側面もあるので、それぞれの部門、部署に最適化されたアプリを多数展開することが重要だと考えます。
Model Hubを活用することで、開発者は様々な業務特化アプリを試作・量産することができますから、企業全体でAI活用の幅を広げることができるはずです。
Model Hubを通じてAIアプリ開発が加速しそうですね。今回ご提供いただいたホワイトペーパーはあらゆる人が読んでも参考になるものですが、特に情報システム部や開発者にとっては大きなヒントがたくさん隠されていると思います。彼らに対してメッセージはありますか?
日本ではソフトウェアエンジニアが過小評価されがちです。個人で副業やフリーランスを選択している開発者にも優秀な人がたくさんいるので、そうした方々でも直接ユーザーに価値を届け、売り上げを還元できるビジネスモデルが必要だと考えています。
私が「K-kaleido」を起ち上げた理由もそこにあり、開発者の価値を社会に認めてもらい、やりがいやポジショニングの向上を目指したいと考えています。アイデアがある人はぜひ私にK-kaleidoのウェブサイトから直接連絡して欲しいと思います。将来的にはユーザーの声を聴き、優れた開発者らと共にAIアプリを育てて、ビジネスPC向けAIアプリマーケットプレイスの実現を目指しています。
※このコンテンツには日本HPの公式見解を示さないものが一部含まれます。また、日本HPのサポート範囲に含まれない内容や、日本HPが推奨する使い方ではないケースが含まれている可能性があります。また、コンテンツ中の固有名詞は、一般に各社の商標または登録商標ですが、必ずしも「™」や「®」といった商標表示が付記されていません。