Los androides de ‘Star Wars’ poseen la habilidad de comprender a los humanos y desarrollar deseos propios. El asistente personal de ‘Her’ muestra capacidades emocionales tan avanzadas que incluso llega a enamorarse. El ordenador HAL de ‘2001: Una odisea en el espacio’ se rebela contra sus tripulantes con el fin de tomar el control de la nave espacial. Estos ejemplos de ciencia ficción representan una tecnología que en un futuro podría ser realidad: la superinteligencia artificial.
Superinteligencia artificial: ¿Qué es y cómo podría cambiar el mundo?
La superinteligencia artificial es un hipotético sistema de IA que tendría «un alcance intelectual más allá de la inteligencia humana», según un artículo de IBM. Esta tecnología dispondría de funciones cognitivas avanzadas y una capacidad de procesamiento extremadamente desarrollada, lo que permitiría resolver complejos problemas en campos como la sanidad, las finanzas o la investigación científica.
Todavía se desconocen los beneficios concretos que podría ofrecer una superinteligencia artificial, pero sería comparable a tener un superordenador casi perfecto disponible las 24 horas del día. De esta manera, podría analizar y razonar sobre cualquier cantidad de datos con una velocidad sin precedentes. Sería ideal para tareas como la conducción segura de coches autónomos o la asistencia durante la exploración espacial. Además, su capacidad para analizar datos podría dar lugar a soluciones innovadoras que los humanos ni siquiera pueden imaginar, como una mayor calidad de vida o una esperanza de vida más longeva.
Los diferentes tipos de IA y sus capacidades
Las tecnologías de IA se clasifican según su capacidad para imitar características humanas. Actualmente, el mundo se encuentra en la primera fase de las tres planteadas para el desarrollo de la IA, pero ya se están sentando las bases de las siguientes etapas, incluyendo la superinteligencia artificial, y sus consecuencias para la humanidad. A continuación, se describen las tres etapas:
- Inteligencia artificial estrecha (ANI, por ‘Artificial Narrow Intelligence’): Programada para desempeñar tareas específicas, es el único tipo de IA que existe actualmente. Se entrena para realizar una tarea particular, a menudo a una velocidad superior a la humana, pero no puede funcionar más allá de su función designada. Incluye desde asistentes virtuales como Siri o Alexa, hasta modelos predictivos de lenguaje generativo como ChatGPT.
- Inteligencia artificial general (AGI, por ‘Artificial General Intelligence’): Actualmente, es un concepto teórico referente a una IA capaz de aprender y adquirir nuevas habilidades más allá de la función para la que fue programada. Con ella, ya no sería necesaria la intervención humana en su entrenamiento, ya que podría desempeñar prácticamente cualquier tarea de manera autónoma.
- Superinteligencia artificial (ASI, por ‘Artificial Superintelligence’): Aunque primero habría que desarrollar con éxito la AGI, este sería el siguiente paso. En él, la IA superaría la capacidad cognitiva humana, siendo capaz de pensar, razonar y realizar juicios cognitivos más allá de las capacidades de las personas. Podría incluso desarrollar emociones, necesidades y deseos propios.
La controversia de la superinteligencia artificial
Aunque la superinteligencia artificial es por ahora un concepto teórico, diversas empresas tecnológicas, investigadores y expertos ya han advertido sobre su potencial futuro. La respuesta oscila entre la fascinación por los avances y el temor a que los algoritmos puedan llegar a suponer algún peligro para los seres humanos.
Poco después del lanzamiento de ChatGPT, figuras como Elon Musk y Steve Wozniak, junto a más de 1.000 investigadores, publicaron una carta abierta pidiendo pausar la investigación de las IA avanzadas por ser «un profundo riesgo para la humanidad». En la misma línea, Eliezer Yudkowsky, del Machine Intelligence Research Institute, también ha llamado a detener por completo el desarrollo de estos avances, argumentando que no podemos prever con exactitud las consecuencias.
En cambio, otros expertos como Marc Andreessen, cofundador de navegadores web como Mosaic y Netscape, no creen que la IA suponga un peligro para la humanidad. «La IA no quiere nada, no tiene metas, no quiere matarte, porque no está viva», escribió en su blog personal. Andrew Ng, precursor de Google Brain, tampoco ve a la IA como una amenaza para la existencia humana.
El futuro de la superinteligencia artificial
Mientras se debate el desarrollo de la inteligencia artificial general, otros expertos ya piensan en la llegada de la superinteligencia artificial. Sin embargo, no hay consenso sobre cuándo podría materializarse. OpenAI sugiere que podría llegar «esta década», mientras que Bill Gates es menos optimista y señala que podría estar a una década o a un siglo de distancia.
El tiempo dirá qué experto atinó más en su pronóstico, pero lo que es seguro es que la superinteligencia artificial representa tanto un desafío como una oportunidad para la humanidad. Su desarrollo requiere una cuidadosa consideración de sus implicaciones éticas y de seguridad para asegurar que esta tecnología sea utilizada para el beneficio de todos.