Cómo crear un chatbot de WhatsApp con n8n, aws y OpenAI
<p>Si quieres crear tu propio chatbot de WhatsApp para recibir mensajes de texto y voz, procesarlos con IA y responder automáticamente, esta guía te muestra una forma práctica de hacerlo con <strong>n8n</strong> + <strong>OpenAI</strong> + <strong>Meta</strong> + <strong>AWS</strong>.<br> <br></p> <h1> 🧠 ¿Qué vas a aprender? </h1> <p>En este post vas a ver cómo:</p> <ul> <li><p>Conectar los servicios de IA de OpenAI con n8n</p></li> <li><p>Conectar los servicios de WhatsApp Business Cloud con n8n</p></li> <li><p>Recibir mensajes de texto, voz y responder automáticamente desde un workflow de n8n.</p></li> <li><p>Estimar costos básicos de operación</p></li> </ul> <h1> 🛠️ Implementación paso a paso </h1> <h2> 1. Prerrequisitos ✅ </h2> <p>Antes de empezar, necesitas:</p> <ul> <li>Una cuenta
Si quieres crear tu propio chatbot de WhatsApp para recibir mensajes de texto y voz, procesarlos con IA y responder automáticamente, esta guía te muestra una forma práctica de hacerlo con n8n + OpenAI + Meta + AWS.
🧠 ¿Qué vas a aprender?
En este post vas a ver cómo:
-
Conectar los servicios de IA de OpenAI con n8n
-
Conectar los servicios de WhatsApp Business Cloud con n8n
-
Recibir mensajes de texto, voz y responder automáticamente desde un workflow de n8n.
-
Estimar costos básicos de operación
🛠️ Implementación paso a paso
1. Prerrequisitos ✅
Antes de empezar, necesitas:
-
Una cuenta de OpenAI con saldo
-
Una cuenta de Meta Developer. Puedes usar tu cuenta personal de Facebook.
-
Un dominio para publicar n8n con HTTPS
-
Acceso a n8n utilizando la instalación self-hosted o servicio en la nube.
-
Descargar el repositorio whatsapp-chatbot para la instalación y configuración del chatbot.
2. Importa chatbot workflow 💬
Importar el flujo de proceso (workflow) que se encuentra en la carpeta n8n del repositorio whatsapp-chatbot. Copia y pega el contenido del archivo whatsapp-chatbot.json en n8n. Este proceso permite:
-
Recibir mensajes de texto o voz desde WhatsApp
-
Identificar si el contenido es audio
-
Descargar el audio y transcribirlo
-
Ejecutar modelo de LLM de OpenAI
-
Envíar la respuesta nuevamente a WhatsApp
3. Configurar OpenAI en n8n 🧠
Para ejecutar los modelos Large Language Model (LLM) de OpenAI en n8n se necesita una API Key para autenticar las solicitudes realizadas desde n8n. Los pasos son:
-
Ingresar a Platform OpenAPI con tu cuenta
-
En el panel lateral ingresar a API Key para crear la llave
-
En el flujo de proceso de n8n, con el nodo de Transcribe Recording, configurar las credenciales OpenAI account.
4. WhatsApp Business API 📲
Para recibir y enviar mensajes de voz y texto desde WhatsApp se debe crear una aplicación en META Developer y configurarla para obtener las credenciales necesarias que permitan la conexión desde n8n. Los pasos son:
-
Crear una aplicación en el portal META Developers.
-
Añadir caso de uso Connect with customers through WhatsApp.
-
Confirmar la creación de la aplicación.
Enviar mensajes hacia WhastApp 📤
Para habilitar el envío de mensajes a WhatsApp desde n8n se requieren credenciales de autenticación para que WhatsApp acepte las solicitudes realizadas desde n8n. Los pasos son:
-
En Meta Developer, ingresar a la personalización del caso de uso de Connect with customers through WhatsApp de la aplicación, en la sección de de configuración de la API, copiar Identificador de la cuenta de WhatsApp Business
-
En META Business, con el portafolio empresarial usado en la creación de la aplicación, opción usuario del sistema, seleccionar un usuario existente o crear uno nuevo.
-
Asignar la aplicación de Meta Developer como activo al usuario del sistema.
-
Generar un identificador para la aplicación seleccionando una vigencia del identificador y la asignación de permisos que deben ser whatsapp_business_messaging.
-
En el flujo de proceso de n8n, con el nodo de Send Message de WhatsApp Business Cloud, crear las credenciales de WhatsApp account, copiando los valores de los puntos 1 y 4, y probar la conexión.
Recibir mensajes desde WhatsApp 📥
Vamos a usar los números de pruebas de WhatsApp para recibir los mensajes, para usar números propios seguir los siguientes pasos. Cada mensaje recibido desde el número configurado en la aplicación ejecuta un WebHook (Servicio Web de n8n) para notificar la recepción del mensaje y el contenido del mismo. Los pasos para la obtención de la credenciales y la configuración del WebHook son:
-
En Meta Developer, ingresar a la información Básica de la Aplicación en la sección de Configuración para consultar el App ID y App Secret.
-
En el flujo de proceso de n8n, con el nodo de WhatsApp Business on Message , crear credenciales WhatsApp OAuth account, con los valores del App ID y App Secret, posteriormente probar la conexión.
-
Publicar el flujo de proceso de n8n, para que estén expuestos sus servicios en internet.
-
En el flujo de proceso de n8n, con el nodo de WhatsApp Business on Message de n8n, copiar la URL Post de Producción que es el Servicio Web expuesto por tu instalación de n8n para ser invocado cada vez que se recibe un mensaje en WhatsApp.
-
En Meta Developer, ingresar a la personalización del caso de uso de Connect with customers through WhatsApp de la aplicación, en la sección de configuración, e ingresa la URL del punto 4 con un identificador de verificación. Posterior probar la conexión.
5. Probar el chatbot 🤖
Utilizando los números de celular de WhatsApp de pruebas podemos ejecutar el flujo de proceso de WhatsApp Chat Bot. Los pasos son:
-
En META Developer, ingresar a personalizar el Casos Uso WhatsApp de la aplicación, en la opción Configuración de la API, copiar el número de prueba.
-
Ingresar a tu WhatsApp y enviar mensaje al número del punto 1.
Costos 💰
OpenAI API 🤖
El costo de usar la API de OpenAI depende principalmente de tres variables: el modelo elegido, la cantidad de tokens procesados y el tipo de uso (entrada y salida). El costo se calcula por cada millón de tokens (texto procesado), donde el output (respuesta del modelo) suele ser entre 3 y 6 veces más caro que el input (texto enviado).
Modelo Input ($/1M tokens) Output ($/1M tokens) Contexto Uso recomendado
GPT-5.4 $2.50 $15.00 ~1M tokens Alta complejidad, agentes
GPT-5.4 mini $0.75 $4.50 400K tokens Apps, SaaS, chatbots
GPT-5.4 nano $0.20 $1.25 ~400K tokens Diseñado para: clasificación extracción pipelines masivos
Cálculo mensual estimado 📊:
Conversación en WhatsApp de 1–5 min
-
Mensajes por conversación: 6–12
-
Palabras por mensaje: 8–15
-
Promedio total palabras: ≈ 120 palabras
Conversión estándar:
-
1 token ≈ 0.75 palabras
-
120 palabras ≈ 160 tokens
Tipo Tokens
Input usuario 80 tokens
Output modelo 80 tokens
Total 160 tokens
Escenario mensual 📅
Supón: 10,000 conversaciones / mes
Modelo Costo mensual
GPT-5.4 $14 USD
GPT-5.4 mini $4.2 USD
GPT-5.4 nano $0.4 USD
Meta API 📱
El modelo de costos de WhatsApp Business API funciona principalmente bajo un esquema de mensajes por categoría, donde el cobro depende del tipo de interacción y de quién inicia la conversación. Existen cuatro categorías: servicio, utilidad, autenticación y marketing. Los mensajes de servicio (cuando el cliente escribe primero) son gratuitos y permiten responder libremente dentro de una ventana de 24 horas con texto, audio, imágenes o documentos.
Cálculo mensual estimado 📈
- 600 mensajes de servicio iniciados por clientes → USD 0
Total Meta estimado 💵: USD 0/mes
n8n
Los costo de n8n dependen del la infraestructura y el número de ejecuciones del flujo del proceso, es decir en el número de conversaciones que se reciban en el chatbot. La comparación de opciones de uso de n8n con infraestructura en aws o de n8n.io es:
Variable Self-hosted (AWS) Cloud Starter Cloud Pro
💰 Costo base
Bajo (infra + ops)
Medio (€20–€30/mes)
Alto (€50–€100+/mes)
⚙️ Infraestructura Tu responsabilidad (AWS, VPS, etc.) Incluida Incluida
🔁 Ejecuciones (workflows) Ilimitadas (según tu infra) Limitadas (~5k–10k/mes) Más altas (~20k–50k+/mes)
🚀 Escalabilidad Manual Automática (limitada) Automática (mejor)
🔐 Seguridad Total control Gestionada por n8n Gestionada por n8n
🔄 Concurrencia Depende de recursos Limitada Mayor concurrencia
🔌 Integraciones Todas Todas Todas
🛠️ Mantenimiento Alto (requiere DevOps) Bajo Bajo
👥 Multiusuario Configurable manual Limitado Completo (roles y equipos)
Sign in to highlight and annotate this article

Conversation starters
Daily AI Digest
Get the top 5 AI stories delivered to your inbox every morning.
More about
modellanguage modelplatform
We Built a Robotics Developer Platform from Scratch - Meet Isaac Monitor & Robosynx
We Built a Full Robotics Developer Platform from Scratch — AI Generator, ROS 2 Architect, Physics Validator, Isaac Monitor, and More One platform that removes every single friction point between a robotics engineer and a working simulation — from generating your first robot file to monitoring a GPU training cluster in real time. This is Robosynx. The Problem We Set Out to Solve Robotics development in 2025 is powerful — but the tooling around it is still fragile, tribal, and painful. You want to test a new robot in NVIDIA Isaac Sim? You need to write URDF XML by hand. You want to move that robot to Isaac Lab for reinforcement learning? Now you need MJCF format, so you spend three hours refactoring XML. You want to validate that the physics won't explode your simulation? There's no standard

Understanding Attention Mechanisms – Part 6: Final Step in Decoding
In the previous article , we obtained the initial output, but we didn’t receive the EOS token yet. To get that, we need to unroll the embedding layer and the LSTMs in the decoder , and then feed the translated word “vamos” into the decoder’s unrolled embedding layer. After that, we follow the same process as before. But this time, we use the encoded values for “vamos” . The second output from the decoder is EOS , which means we are done decoding. When we add attention to an encoder-decoder model, the encoder mostly stays the same. However, during each step of decoding, the model has access to the individual encodings for each input word. We use similarity scores and the softmax function to determine what percentage of each encoded input word should be used to predict the next output word.

Qodo Merge Review: Is AI PR Review Worth It?
Quick Verdict Qodo Merge is one of the most feature-rich AI pull request review tools available in 2026, and the only major option backed by a fully open-source core. Built on the PR-Agent engine, Qodo Merge automatically generates PR descriptions, posts structured review comments, suggests code improvements, and identifies test coverage gaps - all within minutes of a pull request being opened. The February 2026 release of Qodo 2.0 introduced a multi-agent review architecture that achieved the highest F1 score (60.1%) among eight leading AI code review tools in comparative benchmarks. The open-source angle is what makes Qodo Merge genuinely interesting. You can self-host PR-Agent for free with your own LLM API keys and get the core review experience without paying a subscription. The manag
Knowledge Map
Connected Articles — Knowledge Graph
This article is connected to other articles through shared AI topics and tags.
More in Models

Understanding Attention Mechanisms – Part 6: Final Step in Decoding
In the previous article , we obtained the initial output, but we didn’t receive the EOS token yet. To get that, we need to unroll the embedding layer and the LSTMs in the decoder , and then feed the translated word “vamos” into the decoder’s unrolled embedding layer. After that, we follow the same process as before. But this time, we use the encoded values for “vamos” . The second output from the decoder is EOS , which means we are done decoding. When we add attention to an encoder-decoder model, the encoder mostly stays the same. However, during each step of decoding, the model has access to the individual encodings for each input word. We use similarity scores and the softmax function to determine what percentage of each encoded input word should be used to predict the next output word.

I Built a Multi-Agent AI Runtime in Go Because Python Wasn't an Option
The idea that started everything Some weeks ago, I was thinking about Infrastructure as Code. The reason IaC became so widely adopted is not because it's technically superior to clicking through a cloud console. It's because it removed the barrier between intent and execution. You write what you want, not how to do it. A DevOps engineer doesn't need to understand the internals of how an EC2 instance is provisioned — they write a YAML file, and the machine figures it out. I started wondering: why doesn't this exist for AI agents? If I want to run a multi-agent workflow today, I have two choices. I learn Python and use LangGraph or CrewAI, or I build my own tooling from scratch. Neither option is satisfying. The first forces me into an ecosystem and a language I might not want. The second me




Discussion
Sign in to join the discussion
No comments yet — be the first to share your thoughts!