Ética en la IA: La batalla crucial por un futuro responsable

Ética en la IA: La batalla crucial por un futuro responsable

El presidente de Estados Unidos, Donald Trump, ha dado instrucciones a todas las agencias federales para que cesen el uso de los productos desarrollados por la empresa Anthropic, destacando en particular su herramienta de inteligencia artificial generativa, Claude. Este modelo ha sido considerado por expertos como el más adecuado para aplicaciones militares y es el único autorizado para operaciones clasificadas, incluyendo misiones como la captura del presidente venezolano Nicolás Maduro. Por su parte, Anthropic solicita garantías de que su IA no será utilizada para vigilancia masiva de ciudadanos estadounidenses ni como parte de sistemas de armas autónomas sin supervisión humana.

Trump ha afirmado que una empresa privada no tiene la autoridad para dictar cómo operar a las fuerzas armadas ni determinar estrategias de guerra. El Pentágono ha incluso amenazado con clasificar a Anthropic como una potencial amenaza para la cadena de suministro, un tratamiento que previamente se había reservado para empresas tecnológicas extranjeras, como las chinas Huawei y ZTE, así como la rusa Kaspersky. Esta clasificación podría comprometer la capacidad de Anthropic para colaborar con otras empresas que trabajen con la Administración estadounidense.

Este conflicto no solo pone en juego un acuerdo de 200 millones de dólares, sino que también revela el avance del uso de la inteligencia artificial en operaciones militares, a pesar de estar en sus etapas iniciales de desarrollo. Apenas horas después de romper relaciones con Anthropic, la Casa Blanca llevó a cabo un ataque en Irán utilizando herramientas de inteligencia artificial. Este enfrentamiento entre la Administración y la empresa dirigida por Dario Amodei plantea preguntas sobre el uso ético de la IA y los límites que deberían estar definidos por las empresas desarrolladoras o los gobiernos.

Los desacuerdos expresados por Anthropic reflejan preocupaciones similares a las que generan el uso de datos de ciudadanos en regímenes no democráticos. Además, el conflicto tiene un elemento personal significativo, evidenciando la visión de Trump sobre la gobernanza. Amodei, quien ha mostrado apoyo por la candidata demócrata Kamala Harris en las elecciones de 2024, aboga por una regulación en el uso de tecnologías que están transformando el panorama actual rápidamente. Por otro lado, Trump ha acusado a Anthropic de ser una compañía de «izquierda radical» y «woke».

Después de la orden de Trump, OpenAI, cuyo CEO, Sam Altman, es un donante entusiasta de Trump, selló un acuerdo con el Departamento de Defensa para poner su tecnología a disposición de cualquier uso legal. Anthropic, fundada por exprogramadores de OpenAI que discreparon sobre el control de la IA, ha luchado por asegurar que el Pentágono mantenga restricciones sobre la vigilancia ciudadana y la autonomía de combate, pero ha fracasado en este intento, lo que resalta los dilemas éticos que persisten. La resolución de estas cuestiones podría influir en la confianza que los aliados de Estados Unidos, incluida la UE, depositan en el modelo de gobernanza tecnológica estadounidense.

0 0 votos
Article Rating
Suscribir
Notify of
guest
0 Comments
Más antiguos
Más recientes Más votados
Comentarios en línea
Ver todos los comentarios

Puede que te interese