Tener el bot respondiendo en Telegram
Primer hito práctico: crear el bot, conectarlo a n8n y validar que recibe mensajes y devuelve una respuesta útil.
Esta web será documentación, portfolio y bitácora técnica. Cada paso del proyecto quedará explicado con decisiones reales, errores encontrados, solución aplicada y aprendizaje extraído.
Primer hito práctico: crear el bot, conectarlo a n8n y validar que recibe mensajes y devuelve una respuesta útil.
La idea no es solo aprender. La idea es dejar una base bonita, clara y enseñable para vender proyectos reales más adelante.
Aquí iremos reflejando el avance real del bot, dejando cada fase lista para revisar, repetir o enseñar.
Configuración de n8n, Docker, persistencia de datos, entorno local con Ollama y arquitectura base.
Creación del bot con BotFather, obtención del token y primera preparación del canal de entrada.
Recepción de mensajes, primeras pruebas de trigger y validación del flujo mínimo funcional.
Respuesta inteligente usando Ollama en local y dejando documentada la alternativa con OpenAI.
Persistencia en Google Sheets o base de datos para almacenar datos y reutilizarlos más adelante.
Pulido final, caso de uso real, propuesta comercial y conversión del proyecto en algo enseñable y monetizable.
Este paso no es solo instalar cosas. Es dejar una base sólida, reproducible y entendible para cualquier proyecto futuro.
Se decidió trabajar en local en lugar de pagar hosting al principio. La idea fue evitar costes, tener control total del entorno y poder romper cosas sin miedo.
services:
n8n:
image: n8nio/n8n
ports:
- "5678:5678"
volumes:
- ./n8n_data:/home/node/.n8nEl volumen es importante porque mantiene credenciales, workflows y configuración aunque el contenedor se reinicie.
cd D:\\n8n docker compose up -d
docker ps
Después se accedió a http://localhost:5678 y se comprobó que el editor cargaba correctamente.
Solución aplicada: revisar indentación, nombre exacto del archivo y volver a levantar el contenedor.
Se eligió Ollama como motor local para probar modelos sin depender de coste por uso desde el primer día.
ollama run llama3.2:1b
Nota real: llama3 falló inicialmente, pero llama3.2:1b funcionó correctamente.
La implementación principal arrancará con Ollama para priorizar aprendizaje y ahorro. Aun así, se deja contemplada una variante con OpenAI para comparar experiencia, simplicidad operativa y una posible ruta de producción.
Esta sección está pensada para documentar avances, errores, decisiones y capturas del workflow.
Vamos a construir un agente de Telegram conectado a n8n que responda, haga preguntas útiles y guarde datos para convertir conversaciones en leads o acciones automatizadas.
n8n ya arranca en local con Docker, los datos persisten en volumen y Ollama responde con el modelo que mejor encajó para empezar.
El siguiente avance será crear el bot con BotFather, guardar el token y dejar preparada la entrada del flujo para conectarlo con n8n.
La web no debe parecer solo un bloc de notas técnico. Tiene que transmitir progreso, criterio y nivel. Debe servir para aprender, repasar y enseñar a alguien que sabes construir cosas reales.
El siguiente bloque será el Paso 02: creación del bot en Telegram, token de acceso y preparación para conectarlo con n8n. Después documentaremos la conexión real con el trigger y la primera respuesta automática.