Los expertos se reunieron en Ginebra, pero no se pudo llegar a un acuerdo: Estados Unidos y Rusia bloquearon todo el trabajo. Quizás este sea el único momento en que los poderes hegemónicos trabajan de manera tan armoniosa.
Las reuniones de expertos en el formato de la Convención sobre Armas Inhumanas terminaron en Ginebra para decidir el destino de los llamados robots de combate, armas autónomas que utilizan inteligencia artificial para derrotar objetivos. Sin embargo, no se pudo llegar a ningún acuerdo. Estados Unidos, Rusia, Corea del Sur, Israel y Australia se encuentran entre las naciones minoritarias que han logrado bloquear el sentimiento hacia una prohibición completa de los robots asesinos.
Entonces, aunque todavía no existe un arma autónoma que funcione en el mundo, la tecnología sigue siendo, por así decirlo, humana: se puede desarrollar e investigar. Curiosamente, Estados Unidos y Rusia, según el Instituto de Investigación para la Paz de Estocolmo (SIPRI), encabezan la lista de los mayores exportadores de armas. Corea del Sur, Israel y Australia tampoco se quedan atrás en este ranking: se encuentran entre los 20 principales actores del mercado.
Y aunque China (el quinto exportador de armas del mundo, miembro permanente del Consejo de Seguridad de la ONU aboga por la prohibición de los robots de combate, no logró ajustar la balanza en su dirección durante las reuniones. Hoy, 26 países apoyan abiertamente el prohibición del uso de la inteligencia artificial en la guerra. Otros rehuyen una posición clara) Francia y Alemania (tercer y cuarto exportadores de armas) ofrecen firmar un documento que consolidaría la primacía del hombre sobre la inteligencia artificial, pero es más probable del lado de aquellos que quieren desarrollar vehículos de combate autónomos.
"Ciertamente es decepcionante que un pequeño grupo de gigantes militares pueda contener la voluntad de la mayoría", comentó Mary Verhem, coordinadora de la Campaña para detener a los robots asesinos, sobre el resultado de las reuniones de Ginebra.
De hecho, la situación parece una conspiración de magnates monopolistas armados, dado que Estados Unidos y Rusia generalmente no pueden llegar al menos a algún tipo de compromiso en temas importantes. Tomemos el caso de Siria: Washington y Moscú bloquearon mutuamente las resoluciones del otro después de usar armas químicas en Siria esta primavera. Por cierto, los gases asfixiantes y otras sustancias tóxicas con fines militares estaban prohibidos anteriormente por la Convención sobre Armas Inhumanas.
La próxima reunión sobre el destino de los robots asesinos tendrá lugar en Ginebra en noviembre.
¿Por qué quieren prohibir las armas autónomas?
Los defensores de la prohibición de la guerra de robots insisten en que el campo de batalla no es un lugar para la inteligencia artificial. En su opinión, estas tecnologías representan una gran amenaza. Al menos, hoy no está claro cómo la máquina distinguirá entre combatientes (aquellos que están directamente involucrados en las hostilidades) de los no combatientes (personal del servicio militar que solo puede usar armas para la autodefensa) y los civiles en general. Existe la posibilidad de que el trabajo mate a los heridos y a los que se rinden, lo cual está prohibido por las reglas de guerra vigentes.
¿Qué impide que el trabajo interrumpa a todas las partes en conflicto, incluso a los propietarios de tales armas? Los elementos de inteligencia artificial ya se utilizan con éxito en equipos militares, misiles; los robots se sienten atraídos por el reconocimiento, pero la última palabra aún recae en los humanos. Las armas autónomas no obedecerán las órdenes de los comandantes, por eso son autónomas. Es por eso que los generales militares de diferentes países se muestran escépticos sobre la introducción de máquinas en las filas del personal.
Y una cuestión más abierta es el terrorismo internacional. La tecnología de armas autónomas puede caer en las manos equivocadas y eventualmente puede ser pirateada. Hace un año, el presidente ruso Vladimir Putin dijo que el gobernante del mundo será el que se convertirá en el líder en el desarrollo de la inteligencia artificial. En el caso de las armas autónomas, quien obtenga acceso a tales tecnologías se convertirá en el gobernante del mundo. Y para esto, de hecho, solo necesitas una computadora y un dodger que pasará por los sistemas de seguridad. El Pentágono, por cierto, ha sido pirateado más de una vez. En consecuencia, nadie puede dar garantías de que las armas autónomas seguirán siendo inviolables.
Tampoco está claro quién será legalmente responsable si se comete un crimen de guerra como resultado del funcionamiento del sistema autónomo de armas. “¿El ingeniero, programador, fabricante o comandante que usó el arma? Si la responsabilidad no puede definirse como lo exige el derecho internacional humanitario, ¿se puede reconocer el despliegue de tales sistemas como justificado legal o éticamente?”, Señala el Comité Internacional de la Cruz Roja.
Curiosamente, los científicos también abogaron por la prohibición de los robots de combate. En julio de este año, más de dos mil científicos, en particular el creador de Tesla y SpaceX Elon Musk y los cofundadores de DeepMind, firmaron un documento de que no desarrollarían armas autónomas letales. Google hizo lo mismo. El gigante tecnológico ha dejado de trabajar en el proyecto Maven del Pentágono. Y en 2017, varios científicos ya pidieron a la ONU que prohibiera la creación de robots asesinos.
Por cierto, el tema de la inteligencia artificial en la guerra apareció en la agenda de Naciones Unidas a finales de 2013, pero prácticamente nada ha cambiado desde entonces. Solo este año comenzaron las reuniones de expertos en el formato de la Convención sobre Armas Inhumanas. Es decir, se necesitaron más de cuatro años para llegar a algún plano más o menos práctico.
Por qué no quieren prohibir las armas autónomas
No importa lo trillado que pueda parecer, la carrera armamentista es la principal razón por la que no quieren prohibir los robots asesinos. Putin tiene razón: quien obtenga primero las armas autónomas dominará el mundo. Oficialmente, esta razón se expresa.
El principal argumento de los que se oponen a la prohibición es la imposibilidad de separar la inteligencia artificial civil de la militar. Por ejemplo, no prohibiremos los cuchillos de cocina solo porque los terroristas puedan usarlos. De hecho, es prácticamente imposible separar el desarrollo civil de inteligencia artificial del militar. Pero ahora estamos hablando de la prohibición de esta arma, que podrá determinar y atacar objetivos de forma independiente. Este podría ser el proyecto Maven, en el que el Departamento de Defensa de EE. UU. Está trabajando junto con Booz Allen Hamilton (Google rechazó el contrato).
Los desarrolladores de Maven quieren enseñar a los drones a analizar imágenes, en particular de satélites y, potencialmente, identificar objetivos para el ataque. El Pentágono comenzó a trabajar en el proyecto en abril de 2017 y esperaba obtener los primeros algoritmos de trabajo para fin de año. Pero gracias a la gestión de los empleados de Google, el desarrollo se retrasó. A partir de junio de este año, según Gizmodo, el sistema podía distinguir entre objetos elementales: automóviles, personas, pero resultó ser completamente insignificante en situaciones difíciles. Si, no obstante, se adopta la prohibición de las armas autónomas a nivel de la ONU, el proyecto deberá descartarse, mientras que el Pentágono afirma que su desarrollo puede salvar vidas, porque se puede programar para que funcione de forma más precisa y fiable en comparación con las personas.
"Hay que entender que estamos hablando de tecnología, que no tiene muestras que funcionen. La idea de tales sistemas es todavía muy superficial", señaló en vísperas de la reunión en Ginebra en el Ministerio de Relaciones Exteriores de Rusia. - En nuestra opinión, el derecho internacional, en particular el sector humanitario, se puede aplicar a las armas autónomas. No necesitan modernización ni adaptación a sistemas que aún no existen”.
Bueno, y una razón más real, pero no expresada, es el dinero. Hoy, el mercado de tecnologías de inteligencia artificial militar se estima en más de seis mil millones de dólares. Pero para 2025 la cifra se triplicará, a casi 19 mil millones, según analistas de la empresa estadounidense MarketsandMarkets. Para los mayores exportadores de armas, esta es una buena motivación para bloquear cualquier restricción al desarrollo de robots asesinos.
El progreso no se puede detener
Los defensores de la prohibición de las armas autónomas señalan que la tecnología se está desarrollando muy rápidamente y la inteligencia artificial eventualmente se convertirá en un arma, es cuestión de tiempo. Hay lógica en sus palabras. La inteligencia artificial es parte integral de la cuarta revolución científica y tecnológica, que continúa ahora. Hay que tener en cuenta que el progreso técnico está asociado de una forma u otra a las operaciones militares. La tercera revolución científica y tecnológica duró hasta mediados de los años 50 del siglo XX, es decir, su apogeo cayó en el período de la Segunda Guerra Mundial.
En 1949, Ginebra adoptó el Convenio para la protección de personas civiles en tiempo de guerra. En el período de posguerra, también complementaron la IV Convención de La Haya de 1907, que determinó las reglas para la conducción de la guerra. Es decir, los horrores de la Segunda Guerra Mundial se convirtieron en el catalizador de este proceso. Por tanto, los defensores de los derechos humanos no quieren esperar a que la Tercera Guerra Mundial proteja a la humanidad de las armas autónomas. Por eso es necesario ahora decidir el destino de los robots asesinos, insisten.
Según los expertos de Human Rights Watch, el uso de robots de combate contradice la Declaración de Martens, el preámbulo de la Convención de La Haya de 1899 sobre las leyes y costumbres de la guerra. En otras palabras, los robots asesinos violan las leyes de la humanidad y los requisitos de la conciencia pública (la posición fue confirmada en la IV Convención de La Haya).
"Debemos trabajar juntos para imponer una prohibición preventiva de estos sistemas de armas antes de que se extiendan por el mundo", dijo Bonnie Doherty, investigadora principal del departamento de armas de Human Rights Watch.
Bueno, esta vez no funcionó prohibir los robots asesinos. Como era de esperar, las reuniones de noviembre también serán infructuosas. Es cierto que casi todos los países están de acuerdo: no se puede permitir que la tecnología fluya por gravedad y los robots de combate necesitan una grúa de parada de este tipo. Pero todavía no está claro si la humanidad tendrá tiempo de hacerlo cuando surja la necesidad.