Escrito por
Si bien la crisis de la pandemia del COVID-19 no tiene aún un final claro, son notorios los esfuerzos de la comunidad internacional, no sólo para encontrar una cura o vacuna para el virus, sino para el diseño de sistemas de inteligencia artificial cada vez más complejos que puedan ayudar a resolver el problema del trabajo en un contexto de distanciamiento social. Y si bien la inteligencia artificial ha sido bienvenida con bastantes reparos frente a una perspectiva de desempleo masivo entre grandes sectores poblacionales a nivel mundial; hay un uso particular de esta tecnología que, si bien no es tan conocido, no deja de generar preocupación: el sector armamentístico.
Un reciente reporte elaborado por la Cruz Roja y el Instituto de Investigación para la Paz de Estocolmo (SIPRI), indica que la producción de sistemas de armamento dirigidos por Inteligencia Artificial (autonomous weapons systems, AWS) plantea un conjunto de dilemas vinculados a la ética de los conflictos armados y al Derecho Internacional humanitario. Actualmente, un panel en el marco de la Convención de Armas Convencionales de Naciones Unidas de 1980 se viene reuniendo desde hace unos ocho años para discutir el rol de este tipo de sistemas de armas; las cuales si bien han mostrado utilidad en el mantenimiento de la seguridad de tropas en el extranjero y para la detección temprana de ataques hostiles de parte de grupos insurgentes, se terminan volviendo problemáticas si tienen total autonomía para decidir sobre la vida y la muerte de personas sin mayor vinculación a una jerarquía de mando militar y, en última instancia, a un tomador de decisiones que siempre deberá ser un ser humano.
Esto es difícil de implementar ya que la principal característica de este tipo de armas (que pueden ser drones, tanques, ametralladoras móviles u otros), es su capacidad para reaccionar de manera autónoma frente a la cercanía de algún individuo que pueda ser clasificado como combatiente enemigo u objetivo militar sin ningún tipo de orden previa, sino simplemente respondiendo a un algoritmo programado previamente.
Es notorio que la definición de lo aceptable y lo no aceptable en el uso de AWS sigue siendo motivo de controversia debido tanto a los intereses de organismos internacionales, que intentan poner límites a este tipo de sistemas, como por Estados (principalmente Occidentales) que los consideran necesarios en sus respectivas campañas militares en el extranjero, y por supuesto, a los lobbys armamentísticos que presionan por mayores desregulaciones.
En ese sentido, el informe de la Cruz Roja y el SIPRI hace hallazgos importantes que deben ser puestos en consideración: 1). Ejercer control humano sobre sistemas de armas autónomas-AWS es bastante difícil de hacer manteniendo al mismo tiempo la “autonomía” del sistema (precisamente para lo que fue diseñado). 2). Desde una perspectiva ética y de Derechos Humanos, el uso de las AWS genera un limbo legal en donde no se pueden definir responsabilidades humanas, por lo que es indispensable desarrollar algún tipo de control en el uso de la fuerza. 3). Incluso desde el punto de vista operacional, si bien las AWS son útiles debido a sus sistemas de alerta temprana en la detección y respuesta a ataques, estos sistemas siguen siendo impredecibles y pueden poner en riesgo la seguridad de cualquier operación militar. 4). Los controles a implementar deben incluir: restricciones al tipo de objetivos militares, limitaciones de funcionamiento en el tiempo y el terreno, sistemas de desactivación remota, parámetros para el reconocimiento de personal civil y similares. Los Estados que apliquen este tipo de sistemas tendrán que definir los parámetros para aplicar en la práctica estas medidas, a la vez que los foros sobre armamento en el marco de las Naciones Unidas deberán establecer controles más fuertes y reglas claras para el uso de AWS.
Para concluir, señalar que, si la Política siempre está cinco pasos más adelante que el Derecho, es notorio que la Tecnología está a cien pasos más allá. Es necesario reducir la brecha regulatoria en el uso de nuevos aparatos tecnológicos, los cuales aplicados al campo militar pueden generar resultados realmente desastrosos, así como graves problemas de Derechos Humanos para los Estados que los utilizan.
Deja el primer comentario sobre "La responsabilidad humana en el uso de inteligencia artificial para el diseño de armamento militar"