Donde el algoritmo pone el ojo, pone la bala
Leé hasta el final para conocer un talk show hecho enteramente por IAs
En el cielo, los ojos de KUB-BLA, Lancet y Bayraktar jamás se cierran, y están constantemente alertas a lo que ocurre en la tierra, teniendo siempre cerca la posibilidad de apretar el gatillo en menos de lo que transcurre un instante.
No son dioses ni son ángeles.
Son armas operadas automáticamente que sobrevuelan los cielos de Europa del Este y Asia, en medio de la guerra entre Ucrania y Rusia que se extiende hace ya un año.
Las nubes y los pájaros están invadidos por drones con funciones autónomas y que usan la IA para mejorar la precisión con la que atacan y apuntan a sus objetivos: KUB-BLA y Lancet en manos de Rusia, y Bayraktar en manos de Ucrania.
Esta no es la primera vez que se usan esta clase de armas, y probablemente tampoco sea la última… hasta que alguna lo sea.
La noticia de estos días es que se hizo un evento llamado “Inteligencia Artificial Responsable en el Terreno Militar” (Reaim, por su sigla en inglés), organizado por Países Bajos con apoyo de la República de Corea, en el que un conjunto de 60 naciones se agruparon para tratar de establecer algunos límites para el uso de armas autónomas.
Vale mencionar que personalmente creo que los términos inteligencia artificial, responsable y militar son en algún punto tan opuestos y contradictorios entre sí que es un concepto casi imposible de imaginar.
¿Qué hace (o puede hacer) la IA en términos militares?
Los sistemas bélicos compuestos por armas, sensores y navegación pueden usar IA para hacer sus operaciones más eficientes y que requieran menos mantenimiento.
A través del reconocimiento de imágenes, pueden detectar objetivos predeterminados (una persona específica) o analizar imágenes satelitales para poder establecer posibles comportamientos del enemigo y sugerir los cursos de acción más apropiados.
La IA también juega un rol clave en las operaciones de vigilancia con enjambres de drones, que se comunican entre sí para moverse y transmitir información.
Puede tomar decisiones de acuerdo al output de un algoritmo, y en situaciones de alto stress, analizar cuál es la mejor decisión posible.
También hace lo propio en las simulaciones de combate, generando escenarios que los combatientes deben resolver.
Con todo esto en mente, la idea del evento fue poner en agenda tres temas:
Características de la IA: qué aspectos técnicos hay que entender de la IA para aplicarla responsablemente en un contexto militar.
Uso y despliegue responsable de la IA: qué quieren decir en la práctica las aplicaciones militares de la IA, beneficios y vulnerabilidades.
Marcos gubernamentales: qué instrumentos legales y técnicos existen para que los gobiernos aseguren el uso militar responsable.
A lo largo de dos días de charla que te va y charla que te viene, cafecito por aquí y lobby por allá, lxs emisarixs cerraron un documento en el que convocan a gobiernos, empresas, instituciones académicas y ONGs a colaborar en el armado de guías para este uso responsable, a partir de algunos puntos en común:
Los datos deben usarse de acuerdo a la ley nacional e internacional, y los sistemas que usan IA deben tener mecanismos para atenerse a estas normativas desde las etapas más tempranas de los desarrollos.
Los seres humanos deben supervisar los sistemas militares con IA. Todos lxs usuarixs deben conocer y entender los sistemas, la data que usan y las potenciales consecuencias.
Los gobiernos y otros tomadores de decisión (academia, rubro privado, tercer sector, etc.) deben trabajar de manera conjunta, intercambiarse información y discutir activamente normas y buenas prácticas.
Lograr la paz a los tiros
En el segundo capítulo del podcast hablé de cómo la OTAN está invirtiendo fuerte en el tema de la IA para la “seguridad” (un hermoso eufemismo para decir guerra).
Como para que no queden dudas de cuáles son las intenciones con todo esto va un extracto de la fuente más oficial posible: un paper del sitio oficial del Reino Unido de “Estrategia de Defensa con IA”.
“En las manos de nuestros adversarios, estos sistemas controlados mediante inteligencia artificial son una amenaza, y es imperativo que no les demos ventaja. Sabemos de los conflictos éticos que esto trae, pero pensá en los dispositivos que usan estas tecnologías que tenés en tu casa y preguntate por qué no usarlos para defendernos a nosotros mismos y a nuestros valores.”
Como nos enseñó Los Simpsons —la biblia de finales de siglo XX—, organizaciones como la ONU son esencialmente grandes organizadores de eventos donde un montón de gente hace una pantomima de querer solucionar cosas, y no hacen mucho más que perder el tiempo.
Este nuevo concilio de gente con un montón de aparentes buenas intenciones y nula capacidad de acción no parece ser la excepción.
¿Por qué digo esto? Porque entre los 60 países firmantes no sólo está el Reino Unido, sino Estados Unidos y China: dos de los ¿tres? grandes polos geopolíticos de la actualidad. Y pongo “tres” entre signos de pregunta pensando en Rusia, quien vale mencionar, no firmó este acuerdo.
¿En qué cabeza cabe que haya “acuerdos de colaboración e intercambios de información” entre países en una oficina llena de burócratas de traje, mientras que en la vida real se están reventando a tiros, matando a gente de un lado y del otro?
Como pequeño paréntesis, ¿sabés quién tampoco firmó este acuerdo? Argentina1, que aparentemente sigue la misma línea de inversión, desarrollo y promoción científica y tecnológica que mantiene desde la presidencia de Carlos Saúl I.
Volviendo a quienes de verdad pueden reventar el mundo apretando un botón, la cosa se pone todavía más graciosaypatética cuando revolvés un poquito el archivo y ves que en el lejanísimo 2021 hubo ya un intento de hacer una suerte de ampliación del Protocolo de Ginebra por parte de la ONU, en forma de un agregado a una normativa que prohibiese los slaughterbots (un nombre que inspira un montón de paz, cuya traducción sería “bots de matanza”).
Hubo 125 países sobre 193 (64,7%, si sos de quienes prefieren los términos relativos) que votaron a favor. Pero la cosa no salió, porque los que votaron en contra en esa oportunidad fueron Estados Unidos y Rusia.
Entre ese momento y el presente, Estados Unidos dio un paso unilateral y preparó un documento en el que sienta “bases éticas” para el desarrollo de IA militar, mientras que China hizo lo propio un par de meses antes.
Ojo, antes de que quieras ir a chaparte a Biden y pensar que el Tío Sam aprendió la lección y que por eso firmó este nuevo acuerdo, hay muchas voces críticas que sostienen que esta iniciativa en el mejor de los casos es una lavada de cara y en el peor es directamente retrógrada, dado que:
No es vinculante (todo sigue en el terreno de lo que “voluntariamente” se decide hacer).
No establece prohibiciones claras a las armas autónomas que pueden usarse sin control o supervisión humana.
No prohibe el uso de armas autónomas para la targetización específica de seres humanos.
Desde un punto de vista legal, no identifica ni siquiera los tipos de límites necesarios para construir una regulación (marcos temporales, espaciales, duraciones, escalas de fuerza, etc.).
Desde un punto de vista técnico, no toma ninguna medida para asegurar la explicabilidad, trazabilidad, predictibilidad y confiabilidad necesaria detrás de los modelos de ML que usan estas armas.
Como sostiene Mary Wareham, directora de Human Rights Watch y responsable de la campaña Stop Killer Robots:
“Estados Unidos propone una declaración política fallada, al considerar ‘el uso responsable de las armas que incorporan capacidades de IA’ como un paso intermedio. Sin embargo, a lo largo de la última DÉCADA se opuso a las negociaciones para un marco de leyes internacional para la prohibición de robots asesinos. Esto evidencia cómo el Pentágono sigue a cargo.”
El mejor resumen de toda esta danza en torno a la nada lo dijo la agencia Reuters, que sintetizó en tres frases qué fue lo que pasó en ese encuentro: “Estados Unidos propone su propio marco y le dice a los demás que se sumen. China recomienda trabajar a través de las Naciones Unidas. Rusia no fue invitado, Ucrania no estuvo presente, e Israel no lo firmó”. ¡Alentador!
A modo de reflexión muy personal, la cuestión de la paz y la guerra me genera unos cuantos conflictos.
Sé perfectamente bien que de esta crisis sistémica no se va a salir únicamente dialogando, y muchísimo menos en un contexto de tanta desigualdad y asimetrías en términos de poder político concreto y real por un lado, y de tanta propaganda, fake news y posverdad por el otro.
En esta línea, por supuesto que celebro que al menos se empiecen a hablar de estas cosas y a poner en agenda, pero iría siendo hora ya de que los organismos supranacionales como la ONU empiecen a tomarse en serio el desafío de la IA y dar respuestas a la altura de las circunstancias, y no ser la vara que audita quién es el bueno y quién es el malo de una película de acción con un montón de presupuesto dirigida por el G7.
¡Hasta la próxima!
¡Gracias por haber llegado hasta acá! Van algunos links y cosas interesantes:
Que las redes sociales e internet no hacen más que avivar las llamas del odio y la división no es para nada nuevo. La comediante Sarah Silverman se mandó una tremenda editorial hablando de este tema y tiene muchísima actualidad.
¿Sabías que escribí un libro llamado “Las IA son loros estocásticos que mandan fruta”? Yo tampoco (porque no lo escribí2), pero ChatGPT lo resumió igualmente:
Pegarle por estas cosas a ChatGPT ya es como hacer leña de un árbol caído, pero forma parte del punto que sostenía hace unas semanas sobre cómo usar estas tecnologías y para qué. El chatbot te contesta cuál de acuerdo a cuál sería la respuesta más probable… pero eso no la hace verdadera.
Un nuevo género de talk shows está tomando al mundo por asalto: los generados por IA. El show Athene AI streamea 24/7, y básicamente es una serie de entrevistas donde el que pregunta es el mismo Athene (o una IA hecha a partir del streamer), y los que contestan son distintas versiones de IAs preentrenadas a partir de distintas personas: Biden, Musk, o hasta Ricky Gervais. ¡Esto sí que es contenido de calidad!
Obvio que Argentina no inclina la balanza ni a un lado ni al otro en todo este conflicto, pero sería interesante alguna vez dejar de atacar lo micro-cotidiano y coyuntural, y que empecemos a pensarnos un poquito a mediano y largo plazo y más aún en un contexto de fuga de cerebros y exportación de conocimiento tecnológico.
No por falta de ganas, sino más bien por falta de tiempo… ¿te interesaría que escriba un libro con todas estas cosas? ¡Hacémelo saber! 😁