Cómo instalar ntfy en Docker - Notificaciones push simples en Docker

Imagen
ntfy | Push Notifications | Docker ntfy: Servicio de notificaciones push minimalista en Docker Envía notificaciones desde scripts sin registro, sin API keys, sin comisiones. Con un simple curl a un tema. Open source, autohospedado, extremadamente simple. ¿Qué es ntfy? ntfy (pronunciado "notify") es un servicio de notificaciones push minimalista y basado en HTTP . La idea es tan simple como revolucionaria: en lugar de registrarte, compilar una lista de temas y enviar notificaciones con un simple POST a una URL. Cero fricción : no necesitas crear cuenta, no necesitas API keys complicadas, no necesitas autenticación. Solo un simple `curl -d "mensaje" ntfy.sh/mi_tema` desde tu script de backup, cron job o cualquier sistema. Puedes usar ntfy.sh gratuito en la nube, o auto-alojar tu propia instancia en Docker para máxima privacidad y control. Filosofía: Notificaciones sin complejidad. Sin ...

Cómo instalar OpenCode en Docker - Agente de IA OpenCode WEB en Docker

OpenCode | AI Coding Agent | Docker

OpenCode: Agente de IA para codificación open source en Docker

Asistente de IA local para escribir código. Terminal, web, IDE extension. Soporta OpenAI, Claude, Gemini, AWS Bedrock. Sin enviar código a servidores remotos.

¿Qué es OpenCode?


OpenCode es un agente de IA de código abierto para desarrollo de software. A diferencia de GitHub Copilot o Claude Code que envían tu código a servidores remotos, OpenCode puede ejecutarse completamente en tu máquina local con tus propias claves API. Es una alternativa open source más privada y flexible a herramientas propietarias.

Interfaces múltiples: Terminal UI interactiva, web UI moderna, o extensión de IDE (VS Code, Cursor, etc). Soporta múltiples proveedores de LLM: OpenAI, Anthropic Claude, Google Gemini, AWS Bedrock, Groq, Azure OpenAI, o modelos locales. Cada sesión se almacena localmente en SQLite.

Privacidad y control: Tu código nunca se almacena en servidores OpenCode. Las claves de API se guardan localmente. Puedes usar modelos locales o tus propios endpoints. Control total sobre tu entorno de desarrollo.

Características principales

Terminal UI interactiva

Interfaz Bubble Tea en terminal. Smooth experience, acceso desde SSH remoto.

Web UI moderna

Interfaz web accesible desde navegador (puerto 4096 por defecto).

Múltiples proveedores LLM

OpenAI, Claude, Gemini, Groq, AWS Bedrock, Azure, modelos locales.

IDE extensible

Extensión para VS Code, Cursor, Zed, VSCodium y otros

Gestión de sesiones

Guarda múltiples conversaciones. Reanuda desde donde paraste.

Ejecución de comandos

El AI puede ejecutar comandos, buscar archivos, modificar código

Busqueda de archivos @

Escribe @ para buscar archivos fuzzy en tu proyecto

Plan/Build toggle

Tab para cambiar entre Plan (seguro) y Build (ejecuta cambios)

Undo/Redo seguro

/undo y /redo para revertir ediciones sin git panic

Prompts con imágenes

Arrastra screenshots, mockups, diagramas al terminal

Editor integrado

Vim-like editor con soporte para composición de mensajes

Open Source

MIT License. Completamente auditable y personalizable.

Requisitos del sistema

  • Docker instalado
  • 1 GB de RAM mínimo (más según modelos)
  • 2+ GB de espacio en disco para almacenar sesiones
  • Puerto 4096 disponible (interfaz web)
  • API keys para proveedores LLM (OpenAI, Claude, Gemini, etc)
  • Opcional: GPU para ejecutar modelos locales

Instalación con Docker

Opción 1: Docker Run (30 segundos)

docker run -itd \ --name opencode \ -p 4096:4096 \ -v opencode-config:/root/.config/opencode \ -v opencode-data:/root/.local/share/opencode \ -v "$(pwd)":/workspace \ smanx/opencode

Opción 2: Docker Compose

version: '3.8' services: opencode: image: smanx/opencode:latest container_name: opencode restart: unless-stopped ports: - "4096:4096" volumes: - opencode-config:/root/.config/opencode - opencode-data:/root/.local/share/opencode - ./workspace:/workspace environment: - OPENAI_API_KEY=sk-... - ANTHROPIC_API_KEY=sk-ant-... volumes: opencode-config: opencode-data:

Iniciar

docker compose up -d

Acceder a Web UI

Abre http://localhost:4096 en tu navegador

Configuración de proveedores LLM

Configurar API keys

OpenCode autodetecta providers disponibles según credenciales configuradas. Opciones:

  1. Variables de entorno: OPENAI_API_KEY, ANTHROPIC_API_KEY, GOOGLE_API_KEY, etc
  2. Archivo auth.json: En /root/.local/share/opencode/auth.json
  3. opencode.json: Configuración por proyecto en raíz del repo

Configuración global (opencode.json)

{ "$schema": "https://opencode.ai/config.json", "model": "gpt-4o", "provider": { "openai": { "apiKey": "sk-..." }, "anthropic": { "apiKey": "sk-ant-..." } } }

Configuración por proyecto

Crea opencode.json en la raíz de tu proyecto para sobrescribir configuración global

Usar modelo local

LOCAL_ENDPOINT=http://localhost:11434 # Ollama o similar

Usar OpenCode

Terminal UI

  1. En terminal: opencode
  2. Selecciona provider (OpenAI, Claude, Gemini, etc)
  3. Escribe prompts o comandos (/, @, etc)
  4. El AI genera código o ejecuta acciones

Web UI

  1. Abre http://localhost:4096
  2. Crea nueva conversación o abre sesión anterior
  3. Escribe prompts en la interfaz web
  4. Visualiza cambios en archivos en tiempo real

Extensión IDE (VS Code)

  1. Instala extensión OpenCode desde marketplace
  2. En terminal integrado: opencode
  3. Abre tu editor favorito: /editor
  4. Exporta cambios: /export

Comandos principales

  • / → Comando personalizado
  • @ → Búsqueda fuzzy de archivos
  • Tab → Toggle Plan/Build mode
  • /undo → Revertir ediciones
  • /redo → Rehacer ediciones
  • /editor → Abrir editor externo
  • /export → Exportar cambios

Casos de uso

  • Desarrollo local: Asistente IA sin enviar código a Internet
  • Pair programming: AI acompañando tu desarrollo en tiempo real
  • Refactoring: Mejorar código existente automáticamente
  • Generación de tests: Crear test cases unitarios
  • Documentación: Generar comentarios y docstrings
  • Debugging: AI analiza logs y sugiere soluciones
  • Proyectos sensibles: Ejecutar localmente sin riesgos de privacidad

Características avanzadas

MCP (Model Context Protocol)

Integra tools externos en OpenCode vía MCP. Ejemplo:

{ "mcpServers": { "example": { "type": "stdio", "command": "path/to/mcp-server", "args": [], "env": {} } } }

GitHub Copilot integration

Si tienes GitHub Copilot, puedes usarlo como provider en OpenCode:

GITHUB_TOKEN=ghp_...

Self-hosted models

Usa Ollama, LM Studio, o cualquier endpoint OpenAI-compatible:

LOCAL_ENDPOINT=http://localhost:8000

Gestión y mantenimiento

Ver logs

docker compose logs -f opencode

Entrar al contenedor

docker exec -it opencode bash

Backup de sesiones y config

docker run --rm \ -v opencode-data:/data \ -v $(pwd):/backup \ alpine tar czf /backup/opencode-backup-$(date +%Y%m%d).tar.gz -C /data .

Limpiar datos

docker volume rm opencode-config opencode-data

Actualizar a la última versión

docker compose pull docker compose up -d

Comentarios