Julio García Gómez, analista y experto en estrategias de comunicación de la Fundación Casaverde, repasa los retos que la inteligencia artificial plantea a la comunicación: no solo a la institucional o comercial, sino a la interpersonal. La que ocurre entre personas, cara a cara, sin mediación tecnológica.
«La inteligencia artificial es el presente y futuro de la tecnología al servicio del usuario, en que una máquina pretende realizar similares habilidades que las personas desde la perspectiva del conocimiento y el aprendizaje», escribe García Gómez. Su análisis parte de un dato que no debería sorprender pero que merece atención: más del 70% de los usuarios de nuevas tecnologías no combinan el uso digital con sistemas tradicionales de relación como la comunicación verbal y el diálogo presencial.
Lo que la comunicación presencial ofrece y la IA no puede replicar
El argumento central de García Gómez es que hay elementos de la comunicación humana que ninguna máquina puede sustituir. El más obvio: la comunicación no verbal. Gestos, miradas, posición del torso y de las manos transmiten información que los sistemas de texto, incluidos los más avanzados LLM, no capturan ni reproducen en una conversación escrita.
A esto añade la inmediatez del intercambio presencial, que no depende del tiempo de respuesta de un sistema, y la capacidad del diálogo para situar a la persona en su contexto: sus circunstancias, su entorno físico, las personas que le rodean. Son dimensiones que los chatbots, por cómo están construidos, no tienen acceso completo a ellas. Lo mismo que ocurre en la aplicación de humanos digitales en sanidad, donde la capacidad de empatía y el factor humano siguen siendo el límite que la tecnología no ha cruzado.
ChatGPT como «desafío alarmante»: el riesgo de hacer lo difícil demasiado fácil
García Gómez califica a ChatGPT de «desafío alarmante», una formulación que puede resultar exagerada pero que apunta a algo concreto: la facilidad con la que el sistema genera contenido a imitación del ser humano puede dañar la creatividad individual y el aprendizaje basado en el esfuerzo. Si una herramienta resuelve en segundos lo que antes exigía horas de análisis, el proceso de aprendizaje que se produce durante ese esfuerzo desaparece.
El riesgo no es nuevo. La calculadora fue acusada en su día de dañar las habilidades de cálculo mental; internet, de reducir la concentración. La diferencia con ChatGPT es la escala: un LLM puede generar textos completos, argumentados y formalmente correctos sobre casi cualquier tema, en segundos, lo que plantea dudas reales sobre cómo enseñar a escribir, a investigar y a razonar en los próximos años.
Seguridad y suplantación de identidad: el riesgo más tangible
El experto también apunta al riesgo de ciberseguridad que añade la IA generativa: la capacidad de los ciberdelincuentes para usar modelos como ChatGPT para suplantar la identidad de instituciones, organismos y personas. Un correo de phishing generado por IA es notablemente más convincente que los que existían hace cinco años. Y los modelos actuales pueden analizar el tono emocional de un texto y reproducirlo, lo que hace la suplantación más difícil de detectar.
Este vector de riesgo es paralelo al debate sobre quién controla los datos que los modelos usan para aprender. Los medios de comunicación reclaman compensación a OpenAI por el uso de sus contenidos en el entrenamiento de ChatGPT, pero el riesgo de suplantación y desinformación va más allá del debate económico: afecta a la confianza en la comunicación institucional y a la capacidad de los ciudadanos para distinguir lo auténtico de lo generado.

Julio García Gómez es experto en estrategias de comunicación, lenguaje verbal y gestual, y analista y formador en habilidades de comunicación. Director de comunicación de la Fundación Casaverde y la Fundación Economía y Salud. Licenciado en Ciencias de la Información por la Universidad Complutense de Madrid, con formación internacional en NAB Atlanta (EE. UU.) y MIDEM de Cannes (Francia). Autor del libro «Técnicas de Comunicación Eficaz».
Preguntas frecuentes
¿Qué ventajas tiene la comunicación cara a cara frente a los chatbots de IA?
La comunicación presencial ofrece acceso a la comunicación no verbal (gestos, miradas, postura), inmediatez sin latencia tecnológica y la capacidad de estrechar vínculos personales que los sistemas de texto no pueden replicar.
¿Puede ChatGPT suplantar la identidad de personas o instituciones?
Los modelos de IA generativa como ChatGPT pueden usarse para crear textos que imiten el estilo de una persona o institución, lo que facilita el phishing y la desinformación. La detección de estos contenidos es cada vez más difícil para el lector no entrenado.
¿Afecta el uso de IA generativa a la creatividad y el aprendizaje?
Es uno de los debates abiertos en educación. La facilidad con la que un LLM genera textos argumentados puede reducir el esfuerzo cognitivo del estudiante, eliminando el proceso de aprendizaje que se produce durante ese trabajo.
¿Qué porcentaje de usuarios combina tecnología y comunicación presencial?
Según el análisis de Julio García Gómez, menos del 30% de los usuarios de nuevas tecnologías combina el uso digital con formas tradicionales de comunicación cara a cara.













