¿Uso responsable de la IA en el ejército? Estados Unidos publica una declaración de política

El jueves, el Departamento de Estado de EE. UU. emitió una «Declaración política sobre el uso militar responsable de la inteligencia artificial y la autonomía», en la que pide el uso ético y responsable de la IA en las operaciones militares entre las naciones que la desarrollan. El documento establece 12 mejores prácticas para desarrollar capacidades militares de inteligencia artificial y enfatiza la responsabilidad humana. La declaración coincide con la participación de Estados Unidos en una cumbre internacional sobre el uso responsable de la IA militar en La Haya, Países Bajos. Reuters llamó a la conferencia «la primera de su tipo». En la cumbre, la subsecretaria de Control de Armas de EE. UU., Bonnie Jenkins, dijo: “Invitamos a todos los estados a unirse a nosotros para implementar las normas internacionales sobre el desarrollo militar y el uso de IA y armas autónomas. En un preámbulo, la declaración de EE. UU. destaca que cada vez más países están desarrollando capacidades militares de inteligencia artificial que pueden incluir el uso de sistemas autónomos. Esta tendencia ha suscitado preocupaciones sobre los riesgos potenciales del uso de tales tecnologías, particularmente cuando se trata del cumplimiento del derecho internacional humanitario.

El uso militar de la IA puede y debe ser ético, responsable y mejorar la seguridad internacional. El uso de la IA en conflictos armados debe ser coherente con el derecho internacional humanitario aplicable, incluidos sus principios fundamentales. El uso militar de las capacidades de la IA debe ser responsable, incluso mediante dicho uso durante operaciones militares dentro de una cadena de mando y control humano responsable. Un enfoque basado en principios para el uso militar de la IA debe implicar una cuidadosa consideración de los riesgos y beneficios, y también minimizar los sesgos y accidentes no deseados. Los Estados deben tomar las medidas apropiadas para garantizar el desarrollo, despliegue y uso responsable de sus capacidades militares de inteligencia artificial, incluidas aquellas que permiten sistemas autónomos.

Las 12 mejores prácticas enumeradas en el documento se relacionan con la seguridad de las armas nucleares, el diseño responsable de sistemas, la capacitación del personal y los métodos de prueba para las capacidades militares de IA. El documento también enfatiza la necesidad de minimizar las distorsiones y los accidentes no deseados, y la importancia de las pruebas para garantizar la seguridad y la eficacia de las capacidades de la IA militar. El documento proporciona algunos ejemplos notables de cómo los seres humanos siguen siendo responsables en la cadena de mando cuando se trata de sistemas autónomos, particularmente en relación con las armas nucleares: “Los Estados deben mantener el control humano y la participación en todas las actividades necesarias para la información y ejecución de las decisiones soberanas. armas nucleares, el empleo es crucial». También abordó el comportamiento no deseado de la IA en los sistemas militares, que recientemente se ha convertido en una preocupación en los sistemas de aprendizaje profundo del consumidor: «Así es como los estados deben diseñar y desarrollar capacidades militares de IA que tengan la capacidad de reconocer y evitar consecuencias no deseadas y la capacidad de apagar o deshabilitar los sistemas implementados que exhiben un comportamiento no deseado». El documento no especifica exactamente qué tipo de sistemas autónomos o impulsados ​​por IA están cubiertos por la declaración, pero dado que no existe una definición universalmente aceptada de «inteligencia artificial», establece su comprensión del término en una nota al pie. es: “A los efectos de esta declaración, se puede entender que la inteligencia artificial se refiere a la capacidad de las máquinas para realizar tareas que de otro modo requerirían la inteligencia humana, como reconocer patrones, aprender de la experiencia, sacar inferencias, hacer predicciones o tomar medidas. – ya sea digital o como software inteligente detrás de sistemas físicos autónomos.” También el jueves, más de 60 naciones firmaron un “llamado a la acción” que aboga por el uso militar responsable de la IA. Reuters informa que expertos en derechos humanos y académicos señalaron que la declaración no era legalmente vinculante y «no abordaba preocupaciones como los drones controlados por IA, los ‘robots de batalla’ que podían matar sin intervención humana o el riesgo de que una IA pudiera intensificar un ataque militar». el conflicto ha sido abordado». El documento de declaración completo, preparado bajo la autoridad de la Oficina de Control, Verificación y Cumplimiento de Armas, está disponible en el sitio web del Departamento de Estado de EE. UU.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.