Cómo configurar DeepSeek localmente
DeepSeek está muy de moda ahora mismo, sobre todo desde su lanzamiento en enero de 2025, con mucha expectación. Naturalmente, todo el mundo quiere probarlo o simplemente evitar las sobrecargas del servidor o los problemas de conexión. Instalar DeepSeek localmente parece una buena solución, pero, sinceramente, no siempre es tan sencillo, sobre todo si no estás familiarizado con el funcionamiento interno de estos modelos. Esta guía te ayudará a ejecutar DeepSeek en tu propio equipo para que puedas chatear sin hacer cola ni lidiar con interrupciones.
Te explicaremos cómo configurarlo con Ollama, una herramienta de código abierto bastante práctica que te permite ejecutar varios modelos de lenguaje grandes localmente. Es compatible con DeepSeek-R1 y algunas de sus variantes. Si usas Windows, el proceso no es complicado una vez que le coges el truco. Solo prepárate para posibles descargas que pueden tardar un poco, dependiendo de tu velocidad de internet y hardware.
Cómo instalar DeepSeek localmente con Ollama
Básicamente, necesitarás descargar Ollama de su sitio web oficial, instalarlo y luego ejecutar algunos comandos en PowerShell. Los comandos son bastante sencillos, pero pueden ser un poco frustrantes si no estás acostumbrado a la línea de comandos. Una vez configurado, podrás hacer preguntas a DeepSeek directamente desde tu ordenador en lugar de depender de servidores en línea, que suelen ser mucho más rápidos y fiables (a menos que se caiga la conexión a internet, en cuyo caso… sí).
Así es como se ve el proceso en Windows:
Instalar Ollama
- Visita el sitio oficial y descarga la versión para Windows. También hay versiones para Mac y Linux si no tienes Windows.
- Ejecuta el
Ollama.exearchivo descargado y sigue las instrucciones; nada complicado. Si encuentras algún problema, asegúrate de que tu sistema cumpla los requisitos y de tener permisos de administrador.
Inicie PowerShell y ejecute el modelo
- Abra PowerShell: es bastante fácil, simplemente escriba “PowerShell” en la búsqueda del menú Inicio y presione Enter.
- Si ya tienes Ollama instalado, puedes acceder al directorio donde está instalado (normalmente
C:\Program Files\Ollama) o simplemente usarlo desde la ruta si está añadido. Para ejecutar DeepSeek-R1, escribe este comando:ollama run deepseek-r1y pulsa Enter. - Si es la primera vez, tardará un poco porque Ollama descarga los archivos del modelo. Con internet rápido, quizá 20-30 minutos; con conexiones más lentas, sí, podrían ser horas. Consejo: mantén la ventana abierta y evita interrumpirla.
Empieza a chatear con DeepSeek
- Una vez finalizada la descarga, PowerShell mostrará un mensaje como «Modelo cargado» y te invitará a enviar un mensaje. Simplemente escribe tu pregunta o mensaje y pulsa Enter.
- DeepSeek lo procesará, le dará un par de segundos, y luego emitirá una respuesta. Normalmente funciona con bastante fluidez, pero no te sorprendas si duda ante indicaciones complejas o si la respuesta no es perfecta de inmediato. Al fin y al cabo, así es el mundo de la IA.
Variantes adicionales y sus tamaños
Esta configuración predeterminada es la versión 7b de DeepSeek-R1, pero hay algunos otros tamaños, según su capacidad de almacenamiento y paciencia:
- 1.5b (1.1GB) — ollama ejecuta deepseek-r1:1.5b
- 8b (4, 9 GB): mismo patrón, solo cambia el sufijo
- 14b (9 GB)
- 32b (20 GB)
- 70b (43 GB)
- 671b (404 GB): versión completa, si buscas potencia y espacio. Solo prepárate para el tiempo de descarga e instalación.
En algunas configuraciones, el modelo 671b completo tarda muchísimo en cargar (porque, claro, es enorme).Y si tu hardware no lo admite, quizá prefieras quedarte con una versión más pequeña por ahora.