Cómo instalar OpenCode en Docker - Agente de IA OpenCode WEB en Docker
- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones
OpenCode: Agente de IA para codificación open source en Docker
Asistente de IA local para escribir código. Terminal, web, IDE extension. Soporta OpenAI, Claude, Gemini, AWS Bedrock. Sin enviar código a servidores remotos.
¿Qué es OpenCode?
OpenCode es un agente de IA de código abierto para desarrollo de software. A diferencia de GitHub Copilot o Claude Code que envían tu código a servidores remotos, OpenCode puede ejecutarse completamente en tu máquina local con tus propias claves API. Es una alternativa open source más privada y flexible a herramientas propietarias.
Interfaces múltiples: Terminal UI interactiva, web UI moderna, o extensión de IDE (VS Code, Cursor, etc). Soporta múltiples proveedores de LLM: OpenAI, Anthropic Claude, Google Gemini, AWS Bedrock, Groq, Azure OpenAI, o modelos locales. Cada sesión se almacena localmente en SQLite.
Características principales
Terminal UI interactiva
Interfaz Bubble Tea en terminal. Smooth experience, acceso desde SSH remoto.
Web UI moderna
Interfaz web accesible desde navegador (puerto 4096 por defecto).
Múltiples proveedores LLM
OpenAI, Claude, Gemini, Groq, AWS Bedrock, Azure, modelos locales.
IDE extensible
Extensión para VS Code, Cursor, Zed, VSCodium y otros
Gestión de sesiones
Guarda múltiples conversaciones. Reanuda desde donde paraste.
Ejecución de comandos
El AI puede ejecutar comandos, buscar archivos, modificar código
Busqueda de archivos @
Escribe @ para buscar archivos fuzzy en tu proyecto
Plan/Build toggle
Tab para cambiar entre Plan (seguro) y Build (ejecuta cambios)
Undo/Redo seguro
/undo y /redo para revertir ediciones sin git panic
Prompts con imágenes
Arrastra screenshots, mockups, diagramas al terminal
Editor integrado
Vim-like editor con soporte para composición de mensajes
Open Source
MIT License. Completamente auditable y personalizable.
Requisitos del sistema
- Docker instalado
- 1 GB de RAM mínimo (más según modelos)
- 2+ GB de espacio en disco para almacenar sesiones
- Puerto 4096 disponible (interfaz web)
- API keys para proveedores LLM (OpenAI, Claude, Gemini, etc)
- Opcional: GPU para ejecutar modelos locales
Instalación con Docker
Opción 1: Docker Run (30 segundos)
Opción 2: Docker Compose
Iniciar
Acceder a Web UI
Abre http://localhost:4096 en tu navegador
Configuración de proveedores LLM
Configurar API keys
OpenCode autodetecta providers disponibles según credenciales configuradas. Opciones:
- Variables de entorno: OPENAI_API_KEY, ANTHROPIC_API_KEY, GOOGLE_API_KEY, etc
- Archivo auth.json: En /root/.local/share/opencode/auth.json
- opencode.json: Configuración por proyecto en raíz del repo
Configuración global (opencode.json)
Configuración por proyecto
Crea opencode.json en la raíz de tu proyecto para sobrescribir configuración global
Usar modelo local
Usar OpenCode
Terminal UI
- En terminal:
opencode - Selecciona provider (OpenAI, Claude, Gemini, etc)
- Escribe prompts o comandos (/, @, etc)
- El AI genera código o ejecuta acciones
Web UI
- Abre
http://localhost:4096 - Crea nueva conversación o abre sesión anterior
- Escribe prompts en la interfaz web
- Visualiza cambios en archivos en tiempo real
Extensión IDE (VS Code)
- Instala extensión OpenCode desde marketplace
- En terminal integrado:
opencode - Abre tu editor favorito: /editor
- Exporta cambios: /export
Comandos principales
- / → Comando personalizado
- @ → Búsqueda fuzzy de archivos
- Tab → Toggle Plan/Build mode
- /undo → Revertir ediciones
- /redo → Rehacer ediciones
- /editor → Abrir editor externo
- /export → Exportar cambios
Casos de uso
- Desarrollo local: Asistente IA sin enviar código a Internet
- Pair programming: AI acompañando tu desarrollo en tiempo real
- Refactoring: Mejorar código existente automáticamente
- Generación de tests: Crear test cases unitarios
- Documentación: Generar comentarios y docstrings
- Debugging: AI analiza logs y sugiere soluciones
- Proyectos sensibles: Ejecutar localmente sin riesgos de privacidad
Características avanzadas
MCP (Model Context Protocol)
Integra tools externos en OpenCode vía MCP. Ejemplo:
GitHub Copilot integration
Si tienes GitHub Copilot, puedes usarlo como provider en OpenCode:
Self-hosted models
Usa Ollama, LM Studio, o cualquier endpoint OpenAI-compatible:
Gestión y mantenimiento
Ver logs
Entrar al contenedor
Backup de sesiones y config
Limpiar datos
Actualizar a la última versión
Referencias oficiales
Apoya el canal GENBYTE
Suscríbete al canal de YouTube Suscríbete a la newsletter semanal Invítame a un Ko-fi genbyte@proton.me- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones
Comentarios
Publicar un comentario