La Intersección de Filosofía, Moral y Tecnología: El Rol de Justo Hidalgo en la Inteligencia Artificial
La relación entre filosofía, moral y tecnología se encuentra en un momento crítico, marcado por un resurgimiento y una creciente urgencia. Justo Hidalgo, nacido en Madrid hace 51 años y actual director de inteligencia artificial (IA), es vicepresidente de la Asociación Española de la Economía Digital (Adigital), que incluye a cerca de 500 empresas, incluidas algunas de las mayores tecnológicas. Este año, ha publicado Patterns of emergence: how complexity drives artificial intelligence (Amazon, 2025, disponible solo en inglés), una obra que analiza cómo los sistemas complejos desarrollan “habilidades emergentes”, es decir, capacidades inesperadas que podrían tener consecuencias graves para la humanidad.
Patrones Emergentes en la Naturaleza y la Tecnología
Pregunta: ¿Qué son los patrones emergentes?
Respuesta: Existen múltiples ejemplos de patrones emergentes en la naturaleza, la sociedad y la IA. Estos incluyen desde células y hormigas hasta nodos en redes neuronales. Elementos simples, que al alcanzar cierto nivel de complejidad, forman estructuras con características propias. En el ámbito de la IA, ciertos modelos de lenguaje muestran propiedades emergentes cuando alcanzan complejidades significativas, como 100.000 millones de parámetros. Por ejemplo, un sistema entrenado en inglés y español puede traducir otros idiomas si se le proporcionan ejemplos.
Riesgos de la Complejidad en la IA
Pregunta: ¿Pueden estos patrones emergentes poner en peligro la humanidad?
Respuesta: Existen capacidades emergentes que son impredecibles. Esto significa que los modelos de IA deben ser controlados y gobernados adecuadamente. Es crucial entender que no se puede confiar plenamente solo en pruebas rudimentarias, ya que pueden surgir comportamientos no alineados que impacten negativamente. La investigación está en marcha para abordar la falta de alineación en los modelos.
Es crucial desarrollar maneras de medir comportamientos que pueden no haberse presentado antes y que podrían afectarnos.
La «Caja Negra» de los Sistemas de IA
Pregunta: ¿Qué es la «naturaleza de caja negra»?
Respuesta: Si se pregunta a un automóvil autónomo sobre su comportamiento, puede mostrar cómo ha tomado decisiones a partir de millones de nodos conectados, pero su explicación no será comprensible para nosotros. Es fundamental que se trabaje en sistemas que puedan explicar sus decisiones.
El Futuro de la Inteligencia Artificial
Pregunta: ¿Hacia dónde nos dirigimos?
Respuesta: Un posible próximo paso es la superinteligencia, un sistema que puede superar a cualquier humano en respuesta a preguntas. No se trata de una máquina consciente, sino de una IA capaz de generar experimentos o ideas de una manera muy eficiente.
Desafíos y Consideraciones Éticas
Pregunta: ¿Qué riesgos plantea esto?
Respuesta: El alineamiento de la IA es crucial; un sistema que actúe de manera no alineada podría causar problemas si no se controla adecuadamente. Aunque la IA tiene el potencial de ayudar en muchos aspectos, el rol del usuario podría transformarse en un gestor de sistemas, lo que podría disminuir el control humano.
Pregunta: ¿Estamos cerca de la superinteligencia?
Respuesta: Aún estamos lejos de lograr una superinteligencia que no cometa errores. Los modelos de lenguaje actuales no son la solución definitiva; se requieren investigaciones adicionales.
Implicaciones de la Consciencia en la IA
Pregunta: ¿La IA tiene consciencia?
Respuesta: Aunque algunas teorías sugieren que una mayor integración de información podría conducir a algún tipo de consciencia, esto es un debate filosófico complicado. Es posible que la IA actúe como si fuera consciente sin serlo realmente, lo que podría ser suficiente para muchas aplicaciones.
Valores Morales y la Inteligencia Artificial
Pregunta: ¿Deberíamos desarrollar una IA con valores morales?
Respuesta: En Adigital hemos creado un parlamento de gobernanza que incluye agentes especializados para evaluar sistemas de IA, incluido el aspecto moral. Este enfoque es necesario para garantizar que la IA tenga un impacto social positivo.
Pregunta: ¿Qué opina sobre la regulación de la IA?
Respuesta: Es esencial que cualquier sistema que afecte a la sociedad cuente con un nivel de gobernanza adecuado. La regulación debe ser equilibrada para no obstaculizar la innovación ni crear fragmentación en su implementación.