Cómo Ejecutar DeepSeek Localmente: Guía Completa de Configuración
La Inteligencia Artificial (IA) está evolucionando rápidamente, y modelos como DeepSeek se están utilizando ampliamente para la generación de texto, asistencia en codificación e investigación. Ejecutar DeepSeek localmente ofrece múltiples ventajas, incluyendo privacidad, menor latencia y control total sobre el modelo de IA.
Sin embargo, instalar y ejecutar DeepSeek AI localmente requiere una configuración técnica. Esta guía proporciona un método paso a paso para instalar DeepSeek en tu computadora utilizando Ollama, una herramienta diseñada para ejecutar modelos de IA de manera eficiente en hardware local.

Parte 1: Requisitos del Sistema para Ejecutar DeepSeek Localmente
Antes de instalar DeepSeek, debes asegurarte de que tu sistema cumpla con los requisitos mínimos de hardware y software.
Requisitos Mínimos de Hardware:
CPU: Procesador multi-núcleo (Intel i5/Ryzen 5 o superior).
RAM:
- 8GB+ para el modelo 5B.
- 16GB+ para el modelo 8B.
- 32GB+ para el modelo 14B+.
Almacenamiento: Al menos 20GB de espacio libre en disco (varía según el tamaño del modelo).
GPU (Opcional pero Recomendado): NVIDIA RTX 3060 o superior para modelos grandes.
Sistemas Operativos Compatibles:
✅ Windows 10/11 (se recomienda WSL para un mejor rendimiento).
✅ macOS (M1/M2/M3 o Intel).
✅ Linux (se recomienda Ubuntu 20.04 o posterior).
Parte 2: Instalando Ollama para Ejecutar DeepSeek
Ollama es una herramienta ligera que simplifica la ejecución de modelos de IA localmente. Aquí te mostramos cómo instalarla en diferentes sistemas operativos.
Instalando Ollama en macOS
- Abre Terminal.
- Ejecuta el siguiente comando: brew install ollama
- Verifica la instalación ejecutando: ollama --version
Instalando Ollama en Windows
- Descarga Ollama desde el sitio web oficial.
- Ejecuta el instalador y sigue las instrucciones en pantalla.
- Abre Command Prompt (cmd) y escribe: ollama --version
- Si aparece el número de versión, Ollama está instalado correctamente.
Instalando Ollama en Linux (basado en Ubuntu/Debian)
- Abre Terminal.
- Ejecuta el siguiente comando: curl -fsSL https://ollama.com/install.sh | sh
- Confirma la instalación: ollama --version
Parte 3: Descargar y Configurar DeepSeek R1
Una vez que Ollama esté instalado, el siguiente paso es descargar y configurar DeepSeek R1.
Eligiendo el Modelo Correcto de DeepSeek
DeepSeek ofrece múltiples versiones según las capacidades del sistema:
Modelo
Requisito de RAM
Mejor para
DeepSeek R1 1.5B
8GB+
Tareas de IA ligeras
DeepSeek R1 8B
16GB+
Generación de texto general, codificación
DeepSeek R1 14B
32GB+
Resolución de problemas complejos, investigación
DeepSeek R1 32B+
64GB+
Aplicaciones avanzadas de IA
Descargando el Modelo DeepSeek con Ollama
Para instalar DeepSeek en tu máquina local, abre Terminal (macOS/Linux) o Command Prompt (Windows) y ejecuta:
ollama pull deepseek-r1:8b
Sustituye 8b por la versión de modelo que desees, como 1.5b o 14b. El tamaño de la descarga varía, por lo que asegúrate de tener suficiente espacio en el disco.
Parte 4: Ejecutando DeepSeek Localmente
Después de descargar el modelo, puedes iniciar DeepSeek con el siguiente comando: ollama run deepseek-r1:8b
Probando DeepSeek con un Prompt Básico
Prueba ejecutar esto para verificar el modelo: echo "¿Cuál es la capital de Francia?"| ollama run deepseek-r1:8b
¡Si DeepSeek responde correctamente, la configuración ha sido exitosa!
Parte 5: Optimizando DeepSeek para Mejor Rendimiento
Si DeepSeek se ejecuta lentamente o presenta retrasos, prueba estas optimizaciones:
✅ Aumentar los Hilos del CPU
De forma predeterminada, Ollama asigna hilos limitados de CPU. Para mejorar el rendimiento, ejecuta: ollama run deepseek-r1:8b --num-threads=4
Sustituye 4 por el número de núcleos de CPU disponibles.
✅ Usar Aceleración por GPU (Si Está Disponible)
Para GPUs NVIDIA, habilita el soporte CUDA: ollama run deepseek-r1:8b --use-gpu
Esto mejora significativamente el rendimiento para modelos más grandes.
✅ Reducir la Latencia de Respuesta
Usa la bandera max-response-tokens para limitar la longitud de la respuesta y acelerar la salida: ollama run deepseek-r1:8b --max-response-tokens=100
Parte 6: Solución de Problemas Comunes
Si encuentras errores, prueba estas soluciones:
❌ Error: "Ollama no reconocido" (Windows)
✅ Reinicia tu sistema después de instalar Ollama.
✅ Asegúrate de que Ollama esté añadido a las variables de sistema PATH.
❌ Error: "Memoria Insuficiente"
✅ Cierra aplicaciones innecesarias para liberar memoria RAM.
✅ Usa un modelo más pequeño (por ejemplo, cambia de 14B a 8B).
❌ Error: "Dispositivo CUDA no encontrado"
✅ Asegúrate de haber instalado los controladores NVIDIA CUDA.
✅ Ejecuta nvidia-smi en la terminal para comprobar el estado de la GPU.
Conclusión
Ejecutar DeepSeek localmente proporciona privacidad, eficiencia y un mejor control sobre el procesamiento de la IA. Siguiendo esta guía, puedes configurar y optimizar DeepSeek en tu máquina, asegurando tareas asistidas por IA sin problemas para programación, escritura e investigación.
Si encontraste útil esta guía, ¡déjanos saber en los comentarios!
Compartir este artículo:
Valorar este producto:
Juan Mario
Redactor jefe
Trabajo como autónomo desde hace más de cinco años. He publicado contenido sobre edición de video, edición de fotos, conversión de video y películas en varios sitios web.
Más ArtículosDejar un comentario
Introduce tu opinión sobre los artículos de HitPaw