¿Robots asesinos?: Hasta los “buenos robots” son terroríficamente impredecibles

Los responsables de más de 100 de las principales empresas de inteligencia artificial (IA) del mundo están muy alarmados por el desarrollo de “robots asesinos”. En una carta abierta a la ONU, estos líderes empresariales -incluyendo Elon Musk de Tesla y los fundadores de la firma DeepMind AI de Google- advirtieron que la tecnología de armas autónomas podría ser mal utilizada por terroristas y déspotas o hackeada para actuar de manera indeseable 1Pensamos que un peligro mayor surge del uso potencial de gobiernos como los que padecemos en la actualidad en países como México.

Pero la amenaza real es mucho más grande – y no sólo por la mala conducta humana, sino por las propias máquinas. La investigación sobre sistemas complejos muestra cómo puede surgir un comportamiento mucho más impredecible que la suma de las acciones individuales. En un nivel, esto significa que las sociedades humanas pueden comportarse de manera muy diferente a lo que se podría esperar simplemente mirando el comportamiento individual. Pero también puede aplicarse a la tecnología. Incluso los ecosistemas de programas de IA relativamente simples – lo que llamamos estúpidos, o”‘buenos” robots – pueden sorprendernos, e incluso cuando los bots individuales se comportan bien.

Los elementos individuales que forman sistemas complejos, como los mercados económicos o el tiempo global, tienden a no interactuar de una manera lineal simple. Esto hace que estos sistemas sean muy difíciles de modelar y entender. Por ejemplo, incluso después de muchos años de climatología, todavía es imposible hacer predicciones meteorológicas a largo plazo. Estos sistemas suelen ser muy sensibles a pequeños cambios y pueden experimentar circuitos de retroalimentación explosivos. También es muy difícil conocer el estado preciso de tal sistema en cualquier momento. Todas estas cosas hacen estos sistemas intrínsecamente impredecibles 2Cabe señalar que este tipo de conflictos son los que ponen en jaque a quienes defienden la liberación indiscriminada de Organismos Genéticamente Modificados, comúnmente llamados transgénicos.

Todos estos principios se aplican a grandes grupos de individuos que actúan a su manera, ya se trate de sociedades humanas o grupos de robots con IA. Mis colegas y yo recientemente estudiamos un tipo de sistema complejo que incluía buenos robots para editar automáticamente los artículos de Wikipedia. Estos diferentes robots son diseñados y explotados por los editores humanos de confianza de Wikipedia y su software subyacente es de código abierto y está disponible para cualquier persona interesada. Individualmente, todos tienen un objetivo común de mejorar la enciclopedia. Sin embargo, su comportamiento colectivo resulta sorprendentemente ineficiente.

Estos robots de Wikipedia funcionan basados ​​en reglas y convenciones bien establecidas, pero debido a que el sitio web no tiene un sistema de administración central, no existe una coordinación efectiva entre las personas que ejecutan diferentes bots. Como resultado, encontramos pares de robots que han estado deshaciéndose unos a otros durante varios años sin que nadie se de cuenta. Y, por supuesto, porque estos robots carecen de conocimiento, tampoco lo notaron.

Los bots están diseñados para acelerar el proceso de edición. Pero las ligeras diferencias en el diseño de los bots o entre las personas que los utilizan pueden conducir a un enorme desperdicio de recursos en una “guerra de edición” que se habría resuelto mucho más rápido con los editores humanos.

Never mind killer robots – even the good ones are scarily unpredictable

También encontramos que los bots se comportaron de manera diferente en diferentes ediciones de idioma de Wikipedia. Las reglas son más o menos las mismas, las metas son idénticas, la tecnología es similar. Pero en la Wikipedia alemana, la colaboración entre bots es mucho más eficiente y productiva en comparación con, por ejemplo, la Wikipedia portuguesa. Esto sólo puede explicarse por las diferencias entre los editores humanos que ejecutan estos bots en diferentes entornos.

Confusión exponencial

Los robots de Wikipedia tienen muy poca autonomía y el sistema ya funciona de manera muy diferente a los objetivos de los bots individuales. Pero la Fundación Wikimedia está planeando usar la IA para dar más autonomía a los robots. Eso probablemente conducirá a un comportamiento aún más inesperado.

Otro ejemplo es lo que puede suceder cuando dos robots diseñados para hablar con los humanos interactúan entre sí. Ya no nos sorprenden las respuestas dadas por los asistentes personales artificiales, como Siri del iPhone. Pero si ponemos a varios de este tipo de chatbots juntos, podrían empezar a actuar de manera sorprendente, argumentando e incluso insultándose unos a otros.

Cuanto más grande es el sistema y cuanto más autónomo es cada bot, más complejo y por lo tanto impredecible será el comportamiento futuro del sistema. Wikipedia es un ejemplo de gran número de robots relativamente simples. El ejemplo de chatbots es un pequeño número de bots bastante sofisticados y creativos – en ambos casos surgieron conflictos inesperados. La complejidad y, por lo tanto, la impredecibilidad aumenta exponencialmente a medida que se agregan más y más individuos al sistema. Así que en un sistema futuro con un gran número de robots muy sofisticados, el comportamiento inesperado podría ir más allá de nuestra imaginación.

Locura autodidacta

Por ejemplo, los automóviles autodirigidos prometen avances emocionantes en la eficiencia y seguridad de los viajes por carretera. Pero aún no sabemos lo que sucederá una vez que tengamos un sistema grande y salvaje de vehículos totalmente autónomos. Pueden comportarse muy diferente a un pequeño conjunto de coches individuales en un ambiente controlado. Y aún más, podrían ocurrir comportamientos inesperados cuando los coches “entrenados” por diferentes seres humanos (y en diferentes entornos) empiecen a interactuar con los demás en un sistema desconocido por la mayoría.

Los humanos podemos adaptarnos a las nuevas reglas y convenciones relativamente rápido, pero tenemos problemas cuando hacemos transiciones entre sistemas. Esto puede ser mucho más difícil para los agentes artificiales. Por ejemplo, si un coche “entrenado en Alemania” viaja por Italia, no sabemos cómo respondería a los reglamentos y las convenciones culturales no escritas seguidas por muchos otros coches “italianos”. Algo tan común como cruzar una intersección podría llegar a ser letalmente arriesgado porque simplemente no sabemos si los coches interactuarán como se supondría o si harían algo completamente impredecible. Ahora piense en los robots asesinos por los cuales están preocupados Elon Musk y sus colegas. Un solo robot asesino podría ser muy peligroso en manos equivocadas… no queremos ni pensar en qué pasaría con un sistema impredecible de robots asesinos.

Referencias   [ + ]

1. Pensamos que un peligro mayor surge del uso potencial de gobiernos como los que padecemos en la actualidad en países como México
2. Cabe señalar que este tipo de conflictos son los que ponen en jaque a quienes defienden la liberación indiscriminada de Organismos Genéticamente Modificados, comúnmente llamados transgénicos
Previo

Esta batalla no es de Anaya: es de todos

Siguiente

La Ocupación: el festival de la política