La Inteligencia Artificial puede matarnos

No es un secreto que dentro del culto de internet exista la creencia de saber que los sistemas de inteligencia artificial que construyen los humanos cada año son más veloces, avanzados, sofisticados y ricos en información que le dan el empujón, esencia y sentido a su "inteligencia". También es común decir que la máquina eliminará a los humanos dentro de algún rato, pero lejos de que nos exterminen las computadoras por su propio albedrio, algunos personajes relevantes del valle del silicón están haciendo un llamado para evitar el mal uso de la inteligencia artificial.





Como recordatorio de los múltiples usos que tiene la tecnología del mañana, en China se desarrolló un aparato (porque no cumple en si las características de un fusíl) que puede lanzar un haz de luz laser potente capaz de, según aseguran los chinos, quemar su ropa y hacerlo sufrir sin que sepa que fue lo que lo golpeó. Pese a que el dispositivo no es tan sofisticado como lo pintan, es la puerta de entrada a la sofisticación de las armas con la tecnología en el siglo de los inventos posmodernos.



Desde Elon Musk y hasta gente que dirige la subsidiaria de Google DeepMind hicieron una petición clara: El uso de sistemas armamentísticos que usen Inteligencia Artificial para "apuntar" y "atacar" objetivos sin intervención humana son un problema moral y pragmático. Además, se acota en la petición, que la decisión de quitar una vida humana jamás deberá ser delegada a una máquina.



La petición se hace y firma en el marco de la Conferencia de la Junta Internacional en Inteligencia Artificial en Estocolmo, Suecia organizada por el Instituto de la Vida, una institución que busca "mitigar el riesgo existencial" para la humanidad. El activismo en torno al tema no es nuevo, Google ya tuvo protestas de sus empleados cuando se supo que estaba desarrollando drones con Inteligencia Artificial no letal para el Pentágono en un proyecto que no puede acabar hasta después del 2019.

Cuando se supo que Google colaboraba con el Pentágono, Russia Today lo llamó "Google Wars".

En teoría, China y Estados Unidos, los principales interesados en una carrera armamentista de última generación, no tienen motivos reales para no desarrollar sistemas de Inteligencia Artificial armados. Para empezar, el asunto se complica cuando la ONU pone la barrera del definir qué es y que no es un sistema autónomo: Una ametralladora podría señalar al blanco sin disparar hasta que una persona solo oprima un botón-gatillo. También debemos hacernos a la idea de que, a estas alturas, la tecnología para desarrollar armas autónomas ya tuvo un gran alcance.

Estamos avanzando al futuro de lo posible en todos los aspectos, mañana podríamos ordenar pizza usando el asistente de Google y pasado mañana terminamos hechos queso gruyere por algún conflicto bélico. Las Naciones Unidas no tomarán prioridad a un asunto del que ya se había hablado antaño, del cual muchos países, entre ellos México, se han expresado para regular las dichosas "Armas Autónomas Letales (O por sus siglas en Inglés, LAWS) con la misma rigidez de las minas o las bombas.

Lo más visto