¿Está la inteligencia artificial viva? ¿Puede convertirse en un instrumento militar? ¿Llegará a tener un control absoluto sobre la sociedad? Estas son algunas de las preguntas que Tucker Carlson planteó a Sam Altman, CEO de OpenAI, en una entrevista que ha generado gran repercusión internacional.
El creador de ChatGPT, una de las herramientas que marcó un antes y un después en la percepción pública de la IA, no esquivó cuestiones difíciles y reconoció preocupaciones personales sobre el impacto de esta tecnología.
“La IA no está viva”
Altman fue tajante al rechazar la idea de que la inteligencia artificial tenga vida propia. “No tiene autonomía ni libre albedrío. Solo responde cuando se lo pedimos”, explicó. Para él, la sensación de “inteligencia viva” es una ilusión creada por la capacidad del modelo de generar respuestas sorprendentes.
También aclaró la diferencia entre mentir y alucinar: los modelos no engañan deliberadamente, sino que en ocasiones generan respuestas incorrectas debido a limitaciones en su entrenamiento.
¿Religión tecnológica?
Una de las partes más provocadoras de la entrevista fue cuando Carlson sugirió que la IA ya actúa como una religión para algunos usuarios, al ser vista como una fuente de guía superior. Altman rechazó el componente “divino”, aunque reconoció que el entrenamiento de ChatGPT refleja la suma de conocimientos y perspectivas de la humanidad.
“Lo que buscamos es alinear el modelo con valores humanos colectivos, no con mi visión personal”, dijo, al admitir que estas decisiones morales pesan sobre su equipo y sobre él mismo.
Los dilemas más difíciles: suicidio y uso militar
Altman confesó que uno de sus mayores miedos es el uso de la IA en contextos sensibles, como la prevención del suicidio o la aplicación militar.
Sobre el primer caso, explicó que ChatGPT está diseñado para recomendar acudir a profesionales y líneas de ayuda, pero reconoció que hay casos en los que la IA no logra salvar vidas. “No duermo bien desde que lanzamos ChatGPT”, admitió, consciente de que millones de usuarios confían en la herramienta cada día.
En cuanto al ámbito militar, señaló que “el ejército ya usa la IA” y que probablemente hay soldados que consultan ChatGPT para la toma de decisiones. “No me siento cómodo con ello, pero es inevitable”, reconoció.
Empleo: soporte al cliente y programación en riesgo
Altman fue directo al hablar de los sectores más amenazados por la automatización:
- Soporte al cliente: “Estos trabajos desaparecerán. La IA lo hará mejor y 24/7”.
- Programadores: aunque hoy la IA aumenta su productividad, en cinco o diez años podrían sufrir un desplazamiento masivo.
En contraste, aseguró que profesiones como la enfermería se mantendrán por la necesidad de contacto humano.
Privacidad y control
Una de sus propuestas más destacadas fue la creación de un “privilegio de IA”, similar al secreto médico o abogado-cliente, para proteger la confidencialidad de las conversaciones con asistentes de IA. Según Altman, los gobiernos no deberían tener acceso a estos datos salvo en circunstancias muy específicas.
Deepfakes y verificación de identidad
Altman también alertó sobre los deepfakes y el riesgo de no poder diferenciar realidad y ficción. Cree que la sociedad tendrá que adaptarse con nuevos mecanismos de verificación, como firmas criptográficas en mensajes oficiales o el uso de palabras clave privadas entre familiares, aunque rechaza que los datos biométricos deban ser obligatorios.
Conclusión: el peso del futuro en sus hombros
Sam Altman reconoció sentir un “gran peso moral” sobre su trabajo: desde cómo entrenar a los modelos hasta qué límites establecer en su uso. “Cada pequeña decisión afecta a cientos de millones de personas”, dijo.
Su visión es clara: la IA no debe sustituir al ser humano, sino potenciar sus capacidades. Pero la entrevista mostró la paradoja central de la inteligencia artificial: una tecnología que promete democratizar el poder y, al mismo tiempo, abre dilemas éticos, sociales y políticos que todavía no tienen respuesta.