このページの本文へ

新清士の「メタバース・プレゼンス」 第93回

DeepSeek R1、無料で使えるAIとしては最強クラス

2025年02月03日 07時00分更新

文● 新清士

  • この記事をはてなブックマークに追加
  • 本文印刷

PCにダウンロードして動かせる

 DeepSeek R1は、MITライセンスという無償・有償や改変・再配布等、ほぼ無条件に利用できるというライセンスで公開されています。もちろん、これほど大きなLLMは専用のコンピューティング環境を構築しなければ動作しません。しかし、改変に制限がないこともあり、すぐに量子化(軽量化)をすることで、小型化をさせる動きが現れました。

 アップルで機械学習を研究しているアウン・ハヌーン(Awni Hannun)氏は、リリース直後に3ビット量子化を施したDeepSeek R1(ファイルサイズ370GB)を、大量のメモリを搭載したMac 2台で動作させることに成功したとX(旧Twitter)で報告しています。「家庭用ハードウェアに、オープンソースとして扱えるo1が近づいている」とも述べており、192GBのユニファイドメモリを搭載したMac Studioを2台と推測すれば200万円台となり、とても一般家庭で手が出るレベルとは言えませんが。

 ただ、DeepSeek R1にはそれなりのGPUを搭載したローカル環境でも動作を可能にする蒸留版「DeepSeek-R1-Distill」も合わせてリリースされています。Distillは「蒸留」の意味で、大きくて複雑なモデルから小さくて効率的なバージョンを作成する際に、そのパフォーマンスや能力を可能な限り保持しようとする技術のことを言います。

 最大サイズの70Bから最小の1.5Bまであり、Bはbillion(10億)をあらわし、70Bの場合は700億パラメータを持つことを意味しています。また、「Qwen」は中国アリババのLLM、「Llama」は米メタのLLMであり、それらを蒸留時に「教師モデル」として学習を効率化するために使用したことを意味します。パラメータ数が多いほど性能は上がりますが、ファイルサイズが大きくなり、実行時に要求されるVRAMの容量は大きくなります。70Bで約43GB、32Bで約20GB、14Bで約9GB、7Bで約4.7GBとなり、それ以上のVRAMを搭載するビデオカードがあれば、ローカルPCで問題なく動かせる仕組みです。

 DeepSeek-R1-Distillは多言語対応ですが、もともとのDeepSeek R1は英語か中国語を中心に思考する設計のため、サイズが小さくなるにつれて日本語能力が不安定になり、不自然な日本語しか出力されなくなります。筆者が試したところ、日本語で適切な応答を得るには14B以上が必要に感じました。

公開されているDeepSeek R1のDistill版の一覧。いずれもHuggingFaceからダウンロードできる(DeepSeek R1公式ページより)

カテゴリートップへ

この連載の記事
ピックアップ