ChatGPT MD lleva GPT-5 y los LLM locales directamente a Obsidian

El ecosistema de productividad en torno a Obsidian no deja de crecer, y uno de los plugins que más está llamando la atención en la comunidad técnica es ChatGPT MD. Se trata de una integración casi transparente entre Obsidian y modelos de inteligencia artificial como GPT-5, modelos servidos vía OpenRouter y LLM locales a través de Ollama o LM Studio, todo ello sin salir del editor de notas.

El plugin, desarrollado por Bram Adams y posteriormente ampliado junto a Deniz, convierte cada nota de Obsidian en un posible “chat” con un modelo de lenguaje, manteniendo siempre el control en manos del usuario: configuración por frontmatter, datos almacenados solo en el vault y libertad total para elegir proveedor de IA.


Integración nativa con GPT-5 y otros modelos

La última versión del plugin incorpora soporte completo para la familia de modelos GPT-5 de OpenAI:

  • gpt-5 – modelo insignia, centrado en razonamiento avanzado.
  • gpt-5-mini – optimizado para velocidad y eficiencia.
  • gpt-5-nano – ultra ligero para respuestas rápidas.
  • gpt-5-chat-latest – variante “siempre actualizada” para uso conversacional.

El usuario solo tiene que añadir su API key de OpenAI en los ajustes del plugin y elegir el modelo por defecto (por ejemplo, gpt-5-mini). A partir de ahí, cualquier nota puede convertirse en una sesión de chat con el modelo, conservando el contexto y las respuestas en formato Markdown.

Además, ChatGPT MD se integra con OpenRouter.ai, lo que abre la puerta a modelos de otros proveedores como Gemini, Claude, DeepSeek, Llama o Perplexity, y con servidores locales como Ollama o LM Studio, para quien prefiera mantener todo el procesamiento en su propio equipo.


LLM locales: privacidad y cero coste por token

Uno de los pilares del plugin es permitir el uso de modelos locales:

  • Ollama: instalado en el propio sistema, permite servir modelos como llama3.2, qwen2.5, deepseek-r1:7b, etc.
  • LM Studio: corre modelos en local y expone una API compatible tipo OpenAI.

La configuración básica consiste en:

  1. Instalar Ollama o LM Studio.
  2. Descargar uno o varios modelos.
  3. Apuntar ChatGPT MD a http://localhost:11434 (Ollama) o http://localhost:1234 (LM Studio).
  4. Definir el modelo por defecto, por ejemplo: --- model: [email protected] temperature: 0.7 ---

A partir de ahí, el usuario puede trabajar con IA sin enviar datos a la nube y sin costes de API, algo especialmente interesante para desarrolladores, empresas o administradores de sistemas preocupados por la confidencialidad de la información técnica que almacenan en su vault.


Chat directamente desde cualquier nota

El flujo de uso está pensado para ser muy sencillo:

  • Se instala el plugin desde Community Plugins en Obsidian.
  • Se configura al menos un proveedor (OpenAI, OpenRouter o LLM local).
  • Se lanza el comando “ChatGPT MD: Chat” desde el Command Palette (o mediante un atajo de teclado, como Cmd+J).

La nota actual se convierte en un contexto de conversación: el usuario puede seleccionar texto, hacer preguntas, pedir resúmenes, reescrituras, generación de código, etc. Las respuestas se insertan en la propia nota en formato Markdown, lo que facilita su edición, almacenamiento y búsqueda.

Además, el plugin soporta:

  • Enlaces a otras notas como contexto adicional (con enlaces Markdown o tipo wiki de Obsidian).
  • Bloques de comentario para ignorar ciertas partes del texto durante el procesamiento.
  • Plantillas de chat reutilizables (por ejemplo, “actúa como revisor de código”, “actúa como redactor técnico”, etc.).

Configuración por nota mediante frontmatter

Una de las características más potentes de ChatGPT MD es la configuración granular por nota mediante frontmatter YAML. Esto permite adaptar el comportamiento del modelo a cada caso de uso:

---
model: gpt-5
system_commands: ["Actúa como un arquitecto de software senior."]
temperature: 0.3
top_p: 1
max_tokens: 1_500
presence_penalty: 0.5
frequency_penalty: 0.5
stream: true
---

O, en el caso de modelos locales:

---
model: ollama@gemma2:27b
temperature: 1
---

También se pueden definir URLs específicas por servicio:

---
openaiUrl: https://api.openai.com
openrouterUrl: https://openrouter.ai
ollamaUrl: http://localhost:11434
---

La antigua opción única url ha quedado obsoleta en favor de estos parámetros por servicio.


Funciones extra: títulos automáticos, plantillas y beta testing

El plugin incluye además herramientas auxiliares orientadas a quienes utilizan Obsidian como cerebro digital:

  • Infer Title: genera automáticamente un título para la nota en función del contenido, con opción de ejecutarlo tras cierto número de mensajes.
  • Chat Templates: sistema de plantillas para escenarios recurrentes, almacenadas en una carpeta específica.
  • Comandos de mantenimiento: limpiar el chat manteniendo el frontmatter, detener streams, añadir divisores, etc.
  • Beta testing vía BRAT: quienes quieran probar versiones en desarrollo pueden hacerlo usando el plugin BRAT (Beta Reviewer’s Auto-update Tool), con la advertencia habitual sobre posibles errores o pérdida de datos.

En conjunto, ChatGPT MD convierte Obsidian en una especie de “IDE conversacional” para texto, código y conocimiento personal, donde el usuario puede elegir entre modelos en la nube de última generación como GPT-5 o modelos locales para máxima privacidad, todo desde una interfaz que muchos profesionales ya usan a diario para documentar, organizar y pensar.

Si trabajas con notas técnicas, documentación, desarrollo de software o investigación, este plugin es una de las formas más interesantes de llevar los LLM directamente a tu flujo de trabajo en Obsidian, sin fricción y manteniendo el control sobre dónde se almacenan y cómo se usan tus datos.

vía: ChatGPT MD

Scroll al inicio