CoPaw, el asistente open source de Alibaba para montar tu propia IA local

La carrera por el asistente personal de Inteligencia Artificial ya no se libra solo en la nube. Alibaba, a través del ecosistema AgentScope, ha puesto en circulación CoPaw, una propuesta open source que apunta directamente a una idea cada vez más atractiva para desarrolladores y usuarios avanzados: tener un agente propio, con memoria, tareas programadas y capacidad de ampliación, funcionando en el ordenador personal o en un servidor bajo control del usuario. El proyecto está publicado en GitHub, se distribuye con licencia Apache 2.0 y se presenta como un “personal AI assistant” fácil de instalar tanto en local como en la nube.

El interés de CoPaw no está solo en que sea gratis o autoalojable. Lo relevante es que intenta reunir en una sola pieza varias funciones que hasta ahora aparecían dispersas: memoria persistente, múltiples canales de chat, skills personalizadas, ejecución programada por cron y soporte para modelos locales como Ollama, llama.cpp o MLX. En otras palabras, no se vende como un simple chatbot local, sino como una estación de trabajo para un asistente personal que el usuario puede moldear a su gusto.

Un asistente que puede vivir en tu máquina, pero no siempre será “gratis”

Uno de los reclamos más repetidos alrededor de CoPaw es que permite montar un asistente propio sin depender de plataformas cerradas. Y, en buena medida, eso es cierto. La documentación oficial indica que puede ejecutarse enteramente en local con backends como llama.cpp, MLX u Ollama, lo que evita usar servicios cloud y elimina la necesidad de API keys para hablar con modelos remotos. En ese escenario, la experiencia se parece bastante a la de un asistente privado que corre en una web local en 127.0.0.1:8088, con memoria y configuración guardadas por el propio usuario.

Ahora bien, conviene matizar el discurso de “cero coste al mes”. CoPaw sí puede funcionar sin pagar por un modelo externo si se usan modelos locales, pero eso no significa que sea gratis en términos absolutos. Hace falta hardware suficiente, almacenamiento, tiempo de configuración y, en algunos casos, una máquina siempre encendida si se quieren tareas periódicas o presencia constante en canales. Además, la propia documentación aclara que si se eligen modelos cloud como DashScope o ModelScope será necesario introducir una API key válida antes de empezar a usar el sistema.

Memoria, skills y cron: el atractivo real de CoPaw

La parte más interesante del proyecto está en cómo combina varias piezas que, juntas, sí lo acercan al concepto de asistente personal persistente. La documentación oficial dedica secciones específicas a memoria a largo plazo, skills extensibles, comandos mágicos, heartbeat programado y soporte multiagente. Además, el README explica que las skills personalizadas pueden colocarse en el workspace y se cargan automáticamente, mientras que el sistema incorpora cron de serie para programar recordatorios o tareas en distintos canales.

Eso cambia bastante el enfoque frente a muchos asistentes tradicionales. En lugar de abrir una ventana, lanzar una consulta y perder el contexto cada vez, CoPaw aspira a mantenerse vivo dentro de un entorno de trabajo, con memoria configurable y capacidad para actuar en segundo plano. Su hoja de ruta también apunta precisamente en esa dirección: mayor colaboración entre agentes, background tasks, recuperación autónoma, integración más profunda con sandboxes y mejoras del sistema de memoria, incluida destilación de experiencia y entrega proactiva de contexto.

El proyecto también añade una capa práctica importante: no se limita a una consola web. Puede conectarse a múltiples canales, entre ellos DingTalk, Feishu, QQ, Discord e iMessage, y la documentación pública deja claro que la idea es que un mismo asistente pueda operar allí donde ya se comunica el usuario. Eso le da un valor adicional para perfiles técnicos o equipos que no quieren vivir dentro de una única interfaz.

Instalación sencilla, pero no exenta de matices

Uno de los puntos fuertes de CoPaw es que intenta reducir la barrera de entrada. El README ofrece instalación por pip, scripts automáticos para macOS, Linux y Windows, imagen Docker oficial y hasta una aplicación de escritorio en beta. En el caso del script automatizado, el propio proyecto explica que descarga uv, crea el entorno virtual e instala dependencias, incluidos Node.js y los assets del frontend, lo que simplifica bastante el arranque para quien no quiere montar el entorno a mano.

También existe una vía Docker oficial, publicada en Docker Hub como agentscope/copaw, con volúmenes separados para datos y secretos. Ese detalle no es menor, porque muestra que los autores ya están pensando en despliegues algo más serios que una simple demo local. CoPaw permite, por ejemplo, ejecutarse en un contenedor y hablar con servicios alojados en la máquina anfitriona, como Ollama o LM Studio, usando host.docker.internal o networking de host en Linux.

Eso sí, la documentación también deja ver que todavía es un proyecto joven. La aplicación de escritorio sigue marcada como beta, con limitaciones conocidas de compatibilidad, rendimiento y estabilidad. La propia hoja de ruta enumera muchas funciones todavía “in progress” o “planned”, entre ellas tareas asíncronas, fusión de memoria multimodal y soporte cloud-native más profundo. CoPaw avanza rápido, pero aún no está en ese punto en el que pueda considerarse un asistente plenamente cerrado y maduro.

La baza de Alibaba no es solo el modelo, sino el ecosistema

Aunque parte de la conversación pública se centra en CoPaw como alternativa “gratuita” a otros asistentes personales, su mayor fortaleza quizá no esté en competir frontalmente con herramientas comerciales cerradas, sino en ofrecer una base abierta sobre la que construir algo propio. La web del proyecto insiste en esa idea de control completo sobre memoria, canales, skills y despliegue, y el hecho de que pueda combinar modelos locales con proveedores cloud le da una flexibilidad que muchas soluciones propietarias no ofrecen.

A esto se suma un elemento que conviene no pasar por alto: la telemetría. El proyecto informa de que recopila datos anónimos durante copaw init para entender mejor su base de usuarios y priorizar mejoras. Según la documentación, recoge versión de CoPaw, método de instalación, sistema operativo, versión de Python, arquitectura de CPU y disponibilidad de GPU, pero no datos personales, archivos, credenciales ni IPs. Aun así, también deja claro que si se usa --defaults, la telemetría se acepta automáticamente. Es un detalle menor para muchos usuarios, pero relevante en una herramienta que precisamente se vende alrededor del control local.

En conjunto, CoPaw no parece un juguete pasajero. Tampoco es, por ahora, el asistente universal perfecto que sustituirá de golpe a todas las opciones comerciales. Lo que sí representa es una tendencia clara: la del asistente personal autoalojado, modular, ampliable y cada vez más persistente. Y en esa categoría, Alibaba ha puesto sobre la mesa una de las propuestas más completas y prometedoras que se han visto en 2026.

Preguntas frecuentes

¿Qué es exactamente CoPaw?
CoPaw es un asistente personal de IA open source desarrollado dentro del ecosistema AgentScope, pensado para ejecutarse en local o en la nube y ampliarse con skills, memoria y múltiples canales de comunicación.

¿Se puede usar CoPaw sin pagar por APIs de IA?
Sí, si se ejecuta con modelos locales como Ollama, llama.cpp o MLX. En ese caso no hace falta API key. Si se usan proveedores cloud como DashScope o ModelScope, sí será necesaria una clave.

¿Qué funciones lo diferencian de un chatbot local básico?
CoPaw añade memoria a largo plazo, skills cargadas automáticamente, cron integrado para tareas programadas, soporte multiagente y conexión con canales como Discord, iMessage o DingTalk.

¿Está listo para uso estable en escritorio?
Todavía con matices. El proyecto ofrece aplicación de escritorio para Windows y macOS, pero la marca como beta y reconoce limitaciones de compatibilidad, rendimiento y estabilidad.

Scroll al inicio