DeepSeekをローカルで設定する方法
DeepSeekは今、特に2025年1月にリリースされて大きな話題を呼んで以来、非常に人気です。当然のことながら、誰もがDeepSeekを試してみたり、サーバーの過負荷や接続の中断を避けたいと考えているでしょう。DeepSeekをローカルにインストールするのは良い解決策のように思えますが、正直なところ、これらのモデルが舞台裏でどのように機能しているかをよく知らない場合は、必ずしも簡単ではありません。このガイドは、DeepSeekを自分のマシンで実行できるようにすることで、順番待ちや障害に悩まされることなくチャットできるようにすることを目的としています。
Ollamaを使った設定方法を解説します。Ollamaは、様々な大規模言語モデルをローカルで実行できる、とても便利なオープンソースツールです。DeepSeek-R1とその派生モデルをサポートしています。Windowsをお使いの場合は、使い方さえ覚えてしまえば、それほど難しい作業ではありません。ただし、インターネット速度やハードウェアによってはダウンロードに時間がかかる場合があることをご承知おきください。
Ollamaを使ってDeepSeekをローカルにインストールする方法
基本的には、Ollamaを公式サイトからダウンロードしてインストールし、PowerShellでいくつかのコマンドを実行するだけです。コマンド自体は非常にシンプルですが、コマンドラインに慣れていないと少し戸惑うかもしれません。セットアップが完了すると、オンラインサーバーを経由せずに、コンピューターから直接DeepSeekに質問できるようになります。オンラインサーバーは通常、はるかに高速で信頼性が高いです(ただし、インターネットが途切れる場合は別ですが…)。
Windows でのプロセスは次のようになります。
Ollamaをインストールする
- 公式サイトにアクセスしてWindows版をダウンロードしてください。Windowsをお使いでない場合は、Mac版とLinux版もございます。
- ダウンロードした
Ollama.exeファイルを実行し、指示に従うだけです。それほど難しいことではありません。問題が発生した場合は、システムが要件を満たしていること、および管理者権限を持っていることを確認してください。
PowerShellを起動してモデルを実行する
- PowerShell を開きます。スタート メニューの検索に「PowerShell」と入力して Enter キーを押すだけなので簡単です。
- Ollamaが既にインストールされている場合は、インストールされているディレクトリ(通常は
C:\Program Files\Ollama)に移動するか、PATHに追加されている場合はそこから使用できます。DeepSeek-R1を実行するには、次のコマンドを入力しollama run deepseek-r1、 を押しますEnter。 - 初めての場合は、Ollamaがモデルファイルをダウンロードするため、しばらく時間がかかります。高速インターネットであれば20~30分ほど、低速回線であれば数時間かかることもあります。ヒント:ウィンドウを開いたままにして、中断しないようにしてください。
DeepSeekとチャットを始める
- ダウンロードが完了すると、PowerShell に「モデルが読み込まれました」のようなメッセージが表示され、メッセージを送信するよう促されます。質問またはプロンプトを入力して を押してくださいEnter。
- DeepSeekはそれを処理します(1、2秒待つだけで)、そして応答を吐き出します。通常は非常にスムーズに動作しますが、複雑なプロンプトで処理が遅れたり、応答がすぐに完璧でなかったりしても驚かないでください。それがAIの世界なのですから。
追加のバリエーションとそのサイズ
このセットアップではデフォルトで DeepSeek-R1 の 7b バージョンが使用されますが、ストレージ容量と忍耐力に応じて、他のサイズもいくつかあります。
- 1.5b (1.1GB) — ollama 実行 deepseek-r1:1.5b
- 8b (4.9GB) — 同じパターンですが、接尾辞のみ変更します
- 14b (9GB)
- 32b (20GB)
- 70b (43GB)
- 671b (404GB) — フルバージョン。真のパワーと十分な容量を求めるなら。ダウンロードとセットアップに時間がかかることを覚悟してください。
一部の設定では、671b フルモデルの読み込みに非常に時間がかかります(当然ですが、サイズが大きいためです)。また、ハードウェアに十分な性能がない場合は、とりあえず小型版で済ませた方が良いかもしれません。