top of page
IMG_0546.JPG

ノートPCでもサクサク動く最新AI──SmallThinker:2025/07/30

  • 執筆者の写真: 晋次 宮田
    晋次 宮田
  • 2025年7月30日
  • 読了時間: 3分

普段我々が使っているChatGPTなど、多くのAIはクラウド上の巨大なサーバーで動いています。

つまり、多くの人はネットがないとAIは使えません。

私はローカル環境にSmalLM3といった小型LLMを入れていますが、それでも高性能GPU環境を持っていないので遅くて遅くて使えません。

ではもし、AIがローカル端末の中で、ネット環境無しでサクサク動いてくれたら、便利なときは絶対あると思います。



「小さくする」のではなく「最初から小さく作る」


これまで、AIをローカルで動かそうという試みはたくさんありました。

でも、その多くは「クラウド用の巨大なAIを圧縮して、なんとか動かす」というもの。

  • いらない部分を削る

  • 精度をちょっと我慢する

  • それでも重い

結果、どうしても動作が遅かったり、性能が足りなかったりしていました。

今回紹介する「SmallThinker」はどうやら違うようです。

このモデルは最初からスマホやPCで快適に動かすためにゼロから設計されたAIとのこと。



SmallThinkerとは?──スマホでも動く本格派AI


「SmallThinker」は、中国・上海交通大学とZenergize AIが共同開発した大規模言語モデル(LLM)です。

2025年7月に公開されたばかりですが、すでに世界中で話題になっている模様です。

  • GPUなし。普通のPCのCPUだけでOK

  • 必要なメモリはたったの1〜8GB

  • スマートフォンやRaspberry Piでも動作実績あり

  • 1秒あたり20〜100単語(トークン)を生成できる高速性

ということは、理論上約1万円で買える小型PC「Raspberry Pi」でも、SmallThinkerは十分に動くということになります。



必要な機能だけ呼ぶから、ムダがない


SmallThinkerがどうしてそんなに速くて軽いのか?

秘密はその**“合理主義”な設計**にあります。

このモデルは、「Mixture of Experts(MoE)」という仕組みを使っています。

「AIの中には複数の専門家がいて、質問に応じて必要な人だけが答える」

数学の質問をしたら「数学担当の専門家」だけが働きます。残りの専門家たちはお休み。

これで、不要な計算を省いて軽量&高速化を図っています。



計算の段取り


スマホや小型PCでは、メモリが足りなくなるとデータをSSDなどに“仮置き”します。

SmallThinkerはここも工夫していて、処理の前に「このあと何が必要か」を予測して、事前に必要なデータを読み込みに行くしくみになっているようです。並行処理で先読みという感じです。



動作報告


  • 一般のノートPC(Core i9)で108トークン/秒(4Bモデル)

  • スマートフォンで21Bモデルが23トークン/秒

  • Raspberry Pi 5で21Bモデルが6.6トークン/秒

  • Rockchip RK3588(約100ドル)で従来モデルの21倍速

RedditやGitHub、Hugging Faceで動作報告が結構上がっています。

誰でも試せるのでぜひやってみましょう!私もやってっみます。(またレポートします。)


書き手

名前:Shindy Miyata

所属:SHARE Security(http://security.share-yap.com/)

セキュリティエンジニア


 
 
bottom of page