PCにダウンロードして動かせる
DeepSeek R1は、MITライセンスという無償・有償や改変・再配布等、ほぼ無条件に利用できるというライセンスで公開されています。もちろん、これほど大きなLLMは専用のコンピューティング環境を構築しなければ動作しません。しかし、改変に制限がないこともあり、すぐに量子化(軽量化)をすることで、小型化をさせる動きが現れました。
アップルで機械学習を研究しているアウン・ハヌーン(Awni Hannun)氏は、リリース直後に3ビット量子化を施したDeepSeek R1(ファイルサイズ370GB)を、大量のメモリを搭載したMac 2台で動作させることに成功したとX(旧Twitter)で報告しています。「家庭用ハードウェアに、オープンソースとして扱えるo1が近づいている」とも述べており、192GBのユニファイドメモリを搭載したMac Studioを2台と推測すれば200万円台となり、とても一般家庭で手が出るレベルとは言えませんが。
DeepSeek R1 671B running on 2 M2 Ultras faster than reading speed.
— Awni Hannun (@awnihannun) January 20, 2025
Getting close to open-source O1, at home, on consumer hardware.
With mlx.distributed and mlx-lm, 3-bit quantization (~4 bpw) pic.twitter.com/RnkYxwZG3c
ただ、DeepSeek R1にはそれなりのGPUを搭載したローカル環境でも動作を可能にする蒸留版「DeepSeek-R1-Distill」も合わせてリリースされています。Distillは「蒸留」の意味で、大きくて複雑なモデルから小さくて効率的なバージョンを作成する際に、そのパフォーマンスや能力を可能な限り保持しようとする技術のことを言います。
最大サイズの70Bから最小の1.5Bまであり、Bはbillion(10億)をあらわし、70Bの場合は700億パラメータを持つことを意味しています。また、「Qwen」は中国アリババのLLM、「Llama」は米メタのLLMであり、それらを蒸留時に「教師モデル」として学習を効率化するために使用したことを意味します。パラメータ数が多いほど性能は上がりますが、ファイルサイズが大きくなり、実行時に要求されるVRAMの容量は大きくなります。70Bで約43GB、32Bで約20GB、14Bで約9GB、7Bで約4.7GBとなり、それ以上のVRAMを搭載するビデオカードがあれば、ローカルPCで問題なく動かせる仕組みです。
DeepSeek-R1-Distillは多言語対応ですが、もともとのDeepSeek R1は英語か中国語を中心に思考する設計のため、サイズが小さくなるにつれて日本語能力が不安定になり、不自然な日本語しか出力されなくなります。筆者が試したところ、日本語で適切な応答を得るには14B以上が必要に感じました。
公開されているDeepSeek R1のDistill版の一覧。いずれもHuggingFaceからダウンロードできる(DeepSeek R1公式ページより)
この連載の記事
-
第98回
AI
動画生成AIの進化がすごい 「超リアル」「ローカルで動く」2つの方向に -
第97回
AI
AI法案、柔軟規制で国会審議へ 罰則なし“ソフトロー”の狙いは -
第96回
AI
AI生成の3Dデータが実用レベルに近づいてきた -
第95回
AI
月3万円で使えるOpenAIの「Deep Research」 驚異的だが、情報格差が広がる不安も感じた -
第94回
トピックス
1000円あればOpenAIレベルのAIが作れる DeepSeekで注目の「蒸留」とは -
第92回
AI
動画生成AI、ついにアダルトの扉が開く -
第91回
AI
AIの書いた小説が普通に面白い ChatGPT「o1」驚きの文章力 -
第90回
トピックス
画像生成AIで年賀状 リアルな人物も簡単に -
第89回
AI
OpenAI「Sora」残念な離陸 中国勢が飛躍する動画生成AI -
第88回
AI
1枚の画像から、歩き回れる“世界”ができる 来年のAIは「ワールドモデル」がやばい - この連載の一覧へ