Robots asesinos: La Inteligencia Artificial no debe usarse para la guerra

Por Toby Walsh

El desarrollador de inteligencia artificial DeepMind acaba de anunciar su último hito: un bot llamado AlphaStar que juega el popular juego de estrategia en tiempo real StarCraft II a nivel Grandmaster.

Esta no es la primera vez que un bot supera a los humanos en un juego de estrategia de guerra. En 1981, un programa llamado Eurisko, desarrollado por el pionero de la inteligencia artificial (IA) Doug Lenat, ganó el campeonato estadounidense de Traveler, un juego de guerra de estrategia altamente complejo en el que los jugadores diseñan una flota de 100 barcos. En consecuencia, Eurisko fue nombrado almirante honorario en la armada nómada.



Al año siguiente, las reglas del torneo fueron revisadas en un intento de frustrar la eficiencia de las computadoras. Pero Eurisko triunfó por segundo año consecutivo. Con funcionarios amenazando con abolir el torneo si una computadora ganaba nuevamente, Lenat retiró su programa.

El departamento de relaciones públicas de DeepMind explica que hay un consenso en los investigadores de IA, que plantea que StarCraft es “el próximo gran desafío (en los juegos de computadora)”. Un reto que ha persistido durante más de 15 años.

En el más reciente torneo de StarCraft, solo cuatro robots provenían de laboratorios de investigación académicos o industriales. Los otros nueve robots involucrados fueron programados por individuos solitarios fuera de la corriente principal de la investigación de IA.

Robots can outwit us on the virtual battlefield, so let's not put them in charge of the real thing
AlphaStar, el bot programado con Inteligencia Artificial por DeepMind, repeliendo un ataque en el mundo virutal de Starcraft | Crédito: TechXplore

De hecho, los 42 autores del artículo de DeepMind, publicado hoy en Nature, superan ampliamente en número al resto del mundo que construyen bots para StarCraft. Sin restarle importancia a una hazaña impresionante de ingeniería colaborativa, puede ser un problema que el éxito está casi asegurado.

A diferencia de los éxitos recientes en ajedrez y Go informáticos, AlphaStar no aprendió a derrotar a los humanos jugando contra sí mismo. Más bien, aprendió imitando las mejores partes de casi un millón de partidas reales jugadas por seres humanos con amplia experiencia en StarCraft.

Sin esta información, AlphaStar fue derrotado de manera clara por 19 de los 20 jugadores humanos en el servidor de StarCraft. A pesar de que AlphaStar jugó de forma anónima para que los humanos no pudieran explotar las debilidades que podrían haber sido descubiertas en juegos anteriores.

_____

_____

AlphaStar venció a Grzegorz “MaNa” Komincz, uno de los mejores jugadores profesionales de StarCraft del mundo, en diciembre del año pasado. Pero esta era una versión de AlphaStar con reflejos mucho más rápidos que cualquier humano y una visión ilimitada del tablero de juego (a diferencia de los jugadores humanos que solo pueden ver una parte de él en cada momento del juego), lo que rompió la exigencia de que el juego fuera nivelado.

Sin embargo, StarCraft tiene algunas características que hacen de AlphaStar un avance realmente impresionante. A diferencia del ajedrez o el Go, los jugadores de StarCraft tienen información imperfecta sobre el estado del juego y el conjunto de posibles acciones que puedes realizar en cualquier momento es mucho mayor. Además, StarCraft se desarrolla en tiempo real y requiere una planificación a largo plazo.

Robots can outwit us on the virtual battlefield, so let's not put them in charge of the real thing
Combatientes estadounidenses volando sobre Kuwait en 1991. El posicionamiento del hardware militar es complejo y costoso. Crédito: Fuerza Aérea de EUA

Guerras de robots

Esto plantea la cuestión de si, en el futuro, veremos robots no solo luchando guerras sino también planificándolas… ¡En realidad, ya tenemos ejemplos de ambos escenarios!

A pesar de las muchas advertencias planteadas por investigadores de IA como yo, así como por fundadores de compañías de inteligencia artificial y robótica, premios Nobel de la Paz y líderes de la iglesia, se han desarrollado armas totalmente autónomas, también conocidas como “robots asesinos”, y pronto serán usado.

En 2020, Turquía desplegará drones kamikaze en su frontera con Siria. Estos drones usarán visión artificial para identificar, rastrear y matar personas sin intervención humana 1Si este escenario llega a darse realmente, es importante señalar el contubernio entre Erdogan y Trump al respecto, ya que el conflicto bélico se reavivó con acuerdo tácito entre ambos gobiernos cuando EUA retiró sus tropas de la frontera con Siria. Este es un desarrollo terrible. Las computadoras no tienen la capacidad moral de decidir quién vive o muere. No tienen empatía ni compasión. Los “robots asesinos” cambiarán la naturaleza misma del conflicto para peor.

En cuanto a los “generales robot”, las computadoras han estado ayudando a los generales a planear la guerra durante décadas. En Desert Storm, durante la Guerra del Golfo de principios de la década de 1990, se utilizaron herramientas de programación de IA para planificar la acumulación de fuerzas en el Medio Oriente antes del conflicto. Un general estadounidense me dijo poco después que la cantidad de dinero ahorrada al hacer esto era equivalente a todo lo que se había gastado en investigación de IA hasta entonces2Es fundamental conectar este tipo de valoraciones económicas en los contextos de investigación científica y desarrollo tecnológico, pues son la prueba clara de que la ciencia convencional [sobre todo los programas de la llamada Big Science] es un elemento central de la dominación política global. Un argumento que se ha venido revisando el Proyecto Alterius y publicado gradualmente en Tercera Vía.

Las computadoras también han sido utilizadas ampliamente por los generales para estrategias de juego de guerra potencial. Pero así como no confiaríamos todas las decisiones del campo de batalla a un solo soldado, entregar las responsabilidades completas de un general a una computadora sería un paso sumamente cuestionable. Las máquinas no pueden ser responsables de sus decisiones. Solo los humanos pueden serlo, así que con este tipo de apuestas se rompe una piedra angular del derecho internacional humanitario3Los conflictos éticos son evidentes, pero también es importante plantear un dilema de justicia elemental en los potenciales y altamente probables efectos negativos del uso de robots asesinos ¿Quién es el responsable humano de los crímenes de dichos robots: el programador, el gobierno o empresa que financió el desarrollo de la inteligencia artificial, el cuerpo militar que promovió su desarrollo, el sector de la comunidad científica que no se posicionó en contra?

Sin embargo, para atravesar la niebla de la guerra y lidiar con la gran cantidad de información que fluye desde el frente, los generales dependerán cada vez más del soporte informático en la toma de decisiones. Si esto resulta en menos muertes de civiles, menos fuego amigo y más respeto por el derecho internacional humanitario, deberíamos agradecer dicha asistencia informática. Pero es una herramienta que debe gestionarse por humanos, no por las máquinas 4El autor pretende ser crítico pero reconoce que su propio trabajo depende del mismo desarrollo tecnológico que cuestiona y entonces, como sucede comúnmente en artículos de este tipo, termina por buscar resquicios para sostener la aplicación de una tecnología que simplemente no debe aplicarse. Antes de pensar en el uso de drones autónomos en cualquier guerra, es necesario pensar en la guerra misma pero retractarse es también un ejemplo del efecto de la economía política del pensamiento; el fenómeno por el cual los investigadores no terminan de comprometerse con sus propias posiciones éticas por el miedo a perder el financiamiento que les da sustento y prestigio académico..

Aquí hay una última pregunta para reflexionar. Si las empresas tecnológicas como Google realmente no quieren que nos preocupemos por la informática ¿Por qué entonces están construyendo bots para ganar guerras, en lugar de por ejemplo probar sus algoritmos en juegos más pacíficos?

 

Referencias   [ + ]

1. Si este escenario llega a darse realmente, es importante señalar el contubernio entre Erdogan y Trump al respecto, ya que el conflicto bélico se reavivó con acuerdo tácito entre ambos gobiernos cuando EUA retiró sus tropas de la frontera con Siria
2. Es fundamental conectar este tipo de valoraciones económicas en los contextos de investigación científica y desarrollo tecnológico, pues son la prueba clara de que la ciencia convencional [sobre todo los programas de la llamada Big Science] es un elemento central de la dominación política global. Un argumento que se ha venido revisando el Proyecto Alterius y publicado gradualmente en Tercera Vía
3. Los conflictos éticos son evidentes, pero también es importante plantear un dilema de justicia elemental en los potenciales y altamente probables efectos negativos del uso de robots asesinos ¿Quién es el responsable humano de los crímenes de dichos robots: el programador, el gobierno o empresa que financió el desarrollo de la inteligencia artificial, el cuerpo militar que promovió su desarrollo, el sector de la comunidad científica que no se posicionó en contra?
4. El autor pretende ser crítico pero reconoce que su propio trabajo depende del mismo desarrollo tecnológico que cuestiona y entonces, como sucede comúnmente en artículos de este tipo, termina por buscar resquicios para sostener la aplicación de una tecnología que simplemente no debe aplicarse. Antes de pensar en el uso de drones autónomos en cualquier guerra, es necesario pensar en la guerra misma pero retractarse es también un ejemplo del efecto de la economía política del pensamiento; el fenómeno por el cual los investigadores no terminan de comprometerse con sus propias posiciones éticas por el miedo a perder el financiamiento que les da sustento y prestigio académico.
Previo

¿Hemos encontrado el origen geográfico de la humanidad?

Siguiente

Acusan represión de policías estatales en Puebla contra manifestantes en Zacatepec

Sin comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *