JTCloud LabsDocumentando mi camino en IA, MCP y automatización
Proyecto activo · Telegram Bot + n8n + IA

Mi laboratorio público para aprender y construir agentes de IA.

Esta web será documentación, portfolio y bitácora técnica. Cada paso del proyecto quedará explicado con decisiones reales, errores encontrados, solución aplicada y aprendizaje extraído.

n8nTelegramOllamaOpenAIDockerAutomatización
Objetivo actual

Tener el bot respondiendo en Telegram

Primer hito práctico: crear el bot, conectarlo a n8n y validar que recibe mensajes y devuelve una respuesta útil.

En qué se convierte

Portfolio + documentación + producto

La idea no es solo aprender. La idea es dejar una base bonita, clara y enseñable para vender proyectos reales más adelante.

Roadmap del proyecto

Pasos documentados uno a uno

Aquí iremos reflejando el avance real del bot, dejando cada fase lista para revisar, repetir o enseñar.

Paso 01En progreso

Preparar entorno

Configuración de n8n, Docker, persistencia de datos, entorno local con Ollama y arquitectura base.

n8n localDockerPersistenciaOllama
Paso 02Pendiente

Crear bot en Telegram

Creación del bot con BotFather, obtención del token y primera preparación del canal de entrada.

BotFatherTokenCanal
Paso 03Pendiente

Conectar Telegram con n8n

Recepción de mensajes, primeras pruebas de trigger y validación del flujo mínimo funcional.

TriggerCredencialesDebug
Paso 04Pendiente

Añadir IA

Respuesta inteligente usando Ollama en local y dejando documentada la alternativa con OpenAI.

PromptingLLM localLLM cloud
Paso 05Pendiente

Guardar leads o memoria

Persistencia en Google Sheets o base de datos para almacenar datos y reutilizarlos más adelante.

PersistenciaGoogle SheetsMemoria
Paso 06Visión

Versión vendible

Pulido final, caso de uso real, propuesta comercial y conversión del proyecto en algo enseñable y monetizable.

ProductoPortfolioVenta
Paso 01

Preparar entorno (nivel real)

Este paso no es solo instalar cosas. Es dejar una base sólida, reproducible y entendible para cualquier proyecto futuro.

Decisión de arquitectura

Se decidió trabajar en local en lugar de pagar hosting al principio. La idea fue evitar costes, tener control total del entorno y poder romper cosas sin miedo.

Alternativas reales

  • Local con Docker → ideal para aprendizaje y pruebas.
  • VPS contratado → útil para tener acceso externo y un entorno simple de producción.
  • AWS / Azure → opción más profesional si luego quieres escalar o enseñar despliegue cloud.

Preparación inicial

  • Se instaló Docker Desktop para poder ejecutar n8n fácilmente.
  • Se creó una carpeta de proyecto en D:\\n8n.
  • Se utilizó un archivo docker-compose.yml para levantar n8n.
  • Se corrigieron dos problemas comunes: nombre mal escrito del archivo y sintaxis YAML.

Archivo docker-compose.yml usado

services:
  n8n:
    image: n8nio/n8n
    ports:
      - "5678:5678"
    volumes:
      - ./n8n_data:/home/node/.n8n

El volumen es importante porque mantiene credenciales, workflows y configuración aunque el contenedor se reinicie.

Arranque de n8n y primer acceso

cd D:\\n8n
docker compose up -d
docker ps

Después se accedió a http://localhost:5678 y se comprobó que el editor cargaba correctamente.

Configuración de n8n

  • Se completó el alta del usuario owner desde la pantalla inicial.
  • En las versiones actuales, esto sustituye el viejo enfoque de autenticación básica para entrar a la interfaz.
  • Se validó el acceso al editor visual de workflows.

Problemas reales encontrados

  • Nombre incorrecto del archivo docker-compose.yml.
  • Error de sintaxis YAML al definir el contenido.

Solución aplicada: revisar indentación, nombre exacto del archivo y volver a levantar el contenedor.

Ollama (IA local)

Se eligió Ollama como motor local para probar modelos sin depender de coste por uso desde el primer día.

ollama run llama3.2:1b

Nota real: llama3 falló inicialmente, pero llama3.2:1b funcionó correctamente.

OpenAI como alternativa documentada

La implementación principal arrancará con Ollama para priorizar aprendizaje y ahorro. Aun así, se deja contemplada una variante con OpenAI para comparar experiencia, simplicidad operativa y una posible ruta de producción.

Qué falta por documentar aquí

  • Captura del dashboard de n8n.
  • Captura de docker ps con el contenedor activo.
  • Captura de terminal con Ollama respondiendo.
  • Posible variante futura: despliegue en VPS o en AWS / Azure.

Aprendizajes clave

  • Docker simplifica muchísimo el despliegue local de herramientas como n8n.
  • La persistencia de datos no es opcional si quieres un entorno útil de verdad.
  • Los errores iniciales enseñan más que la teoría porque obligan a entender qué está pasando.
  • Elegir bien el modelo en IA evita bloqueos innecesarios al principio.
Bitácora

Lo que voy haciendo, sin filtrar

Esta sección está pensada para documentar avances, errores, decisiones y capturas del workflow.

Día 1

Definimos el proyecto

Vamos a construir un agente de Telegram conectado a n8n que responda, haga preguntas útiles y guarde datos para convertir conversaciones en leads o acciones automatizadas.

Día 2

Primera base técnica lista

n8n ya arranca en local con Docker, los datos persisten en volumen y Ollama responde con el modelo que mejor encajó para empezar.

Día 3

Siguiente foco: Telegram

El siguiente avance será crear el bot con BotFather, guardar el token y dejar preparada la entrada del flujo para conectarlo con n8n.

Estructura

Qué debe tener cada entrada

  • Objetivo del paso
  • Acciones realizadas
  • Errores encontrados
  • Cómo se solucionaron
  • Captura o diagrama
  • Aprendizaje clave
Visión

Esto tiene que verse bonito y útil

La web no debe parecer solo un bloc de notas técnico. Tiene que transmitir progreso, criterio y nivel. Debe servir para aprender, repasar y enseñar a alguien que sabes construir cosas reales.

Siguiente paso

Crear el bot con BotFather

El siguiente bloque será el Paso 02: creación del bot en Telegram, token de acceso y preparación para conectarlo con n8n. Después documentaremos la conexión real con el trigger y la primera respuesta automática.