Buscar en este blog

jueves, 21 de enero de 2021

Aplicaciones militares de la 'inteligencia artificial': el Boletín de Científicos Atómicos


El Boletín de Científicos Atómicos —que ostenta 16 Premios Nobel y se ha dado a conocer con su ominoso "reloj del juicio del día final" que, por cierto, se encuentra a dos minutos de media noche—, indaga con "un paquete de cinco autores" las aplicaciones militares de la inteligencia artificial.

El Boletín colaboró con la Fundación Stanley que tiene un enfoque multilateral sobre la política nuclear, el cambio climático y la "prevención del genocidio".

Juzgan que la inteligencia artificial, la robótica y el aprendizaje profundo "permiten nuevas capacidades militares que tendrán un impacto disruptivo en las estrategias militares" cuyos "efectos serán sentidos en el espectro de los requerimientos militares": desde el espionaje/vigilancia hasta los equilibrios entre ofensiva y defensiva y "en los mismos sistemas de armas nucleares.

Los cinco expertos sopesan sus "usos potenciales en armas autónomas y sistemas de sensores" que impactarán los desafíos morales y prácticos para manejar la explosión de la Investigación y Desarrollo militar de la inteligencia artificial.

El objetivo del Boletín y la Fundación es "preservar los avances a paso acelerado en el aprendizaje de las máquinas" de "un estallido global en la carrera armamentista de la inteligencia artificial que coloca un nuevo riesgo existencial a la humanidad".

Las cinco series:

1. 'La promesa y el peligro de las aplicaciones militares de la inteligencia artificial, por Michael C. Horowitz, director de Perry World House, de la Universidad de Pensilvania: la inteligencia artificial  promete "mejorar la velocidad y la precisión de todo, desde la logística y la planeación del campo de batalla hasta la toma de decisiones".

La inteligencia artificial ocupa "un momento en la Seguridad Nacional del Espacio" que va mucho más allá de los populares robots humanoides, lo cual ha sido abordado por Elon Musk, fundador de Tesla, quien aduce que puede desencadenar una Tercera Guerra Mundial, no se diga la clásica frase del zar 'Vlady' Putin quien comentó que el país que controle la inteligencia artificial dominará al mundo.

Para los militares "la inteligencia artificial no es un arma", sino "un facilitador, como la electricidad o un motor de combustión", por lo que su "efecto en el poder militar y el conflicto internacional dependerá de sus aplicaciones particulares para los militares como para los hacedores de la política".

Para EEUU "ofrece una nueva ruta para sostener su superioridad militar, mientras reduce el costo y riesgo a sus soldados". Para "Rusia y China ofrece algo más valioso: la capacidad de quebrantar la superioridad militar de EEUU.

Comporta tres áreas de aplicación potencial que contempla la "critica interacción entre ciberseguridad e inteligencia artificial: A- facilita el procesamiento de una infinidad de macrodatos mediante algoritmos que interpreten las imágenes mas rápido derivadas de la vigilancia de los drones; B- desde lo hipersónico hasta los ciberataques y; C- el "copiloto leal" que cuenta con algoritmos que coordine cuando no pueda hacerlo el controlador humano para guiarlo.

Una de sus aplicaciones es la creación de "sistemas autónomos letales" de los robots.

2. 'Temor a falsos negativos y a la postura nuclear de China', por Lora Saalman, vicepresidenta del programa Asia/Pacífico del Instituto Este/Occidente: el entendimiento de la inseguridad china y su capacidad para detectar ataques, como "rayos caídos del cielo", y la integración de la inteligencia artificial y su autonomía en plataformas convencionales y nucleares.

Advierte que China no maneja los "términos provocativos", como "singularidad en el campo de batalla", y cuando usan el término "singularidad" tiene otro significado que en EEUU.

China busca integrar la inteligencia artificial y su autonomía para "mejorar la funcionalidad de un largo abanico de plataformas militares existentes". Su preocupación se centra en los "falsos negativos": fallas de los sistemas de alerta temprana para detectar un verdadero ataque, así como las "suposiciones sobre las intenciones de EEUU.

Cita a Cui Maodong, del Centro de Investigación Estratégica de la Academia China de Ingeniería, quien "implica que EEUU intenta jalar a China y a Rusia a una nueva carrera armamentista".

3. 'La defensa frente al entretenimiento', por William Regli, director del Instituto de Investigación de Sistemas de la Universidad de Maryland: peligros a los cerebros humanos y a su civilización de un entretenimiento activado por la inteligencia artificial. Se trata de "no matar al espectador".

Analiza la intersección de los avances de inteligencia artificial con las armas nucleares cuando la "trayectoria de los avances en inteligencia artificial y el aprendizaje de las máquinas apuntan a una posible creación de sistemas de armas que sean más autónomas y carezcan del control de los humanos", aunque "existe plena evidencia de que la edad de la autonomía que amenaza la existencia no ha llegado aún".

Aduce que se puede adoptar la postura de que el estudio de temas —como la adicción a internet, procesos cognitivos asociados con una conducta inmersiva a las computadoras y la fisiología de la formación de la identidad— constituyen "temas para psiquiatras, antropólogos y médicos, no para científicos de la computación".

Arguye que se debe convencer a los ingenieros de software que productos de programación, como un juego o una técnica de publicidad 'online', deben ser tratados como peligros potenciales: "constituyen disyuntivas morales que golpean en el corazón de los códigos éticos de las sociedades profesionales" cuando "nos encontramos en el precipicio de la edad de los sistemas simbióticos humanos-máquina" ya que los experimentos de las ciencias sociales sin control, que liga en forma intricada la vida de los humanos a las computadoras de la inteligencia artificial , pueden resultar en cambios en la especie humana.

Es "potencialmente imposible crear una inteligencia artificial  consciente" por lo que se puede imaginar "un sistema que pueda crear un efecto duradero en la parte humana del sistema humano-máquina", que puede "alterar químicamente los cerebros, manufacturar opiniones, reforzar patrones de conducta y exacerbar comportamientos que no son del interés individual y colectivo".

4. 'Manifiestos y cartas abiertas: ¿regreso al futuro?', por Kerstin Vignard, vicedirectora del Instituto para la Investigación del Desarme de la ONU (UNIDIR): "el manejo de las armas letales autónomas necesitan una mayor participación de las comunidades científicas y de investigación, así como de representantes del sector privado".

Investigadores en inteligencia artificial  y robótica escribieron en 2017 una carta abierta a la Convención sobre ciertas armas convencionales con el fin de "prevenir una carrera armamentista de estas armas, proteger a los civiles de su mal uso y evitar los efectos desestabilizadores de estas tecnologías" ya que "una vez que se abra esta caja de Pandora será muy difícil cerrarla", en especial, las "armas autónomas".

Se trata de "configurar los beneficios potenciales de la inteligencia artificial  mientras se limitan sus peligros".

Juegan un gran papel la Campaña para Detener a los Robots Asesinos, así como el Comité Internacional para el Control de Armas Robóticas.

5. '¿Por qué el mundo necesita regular muy pronto las armas autónomas?', por Peter Asaro, cofundador del Comité Internacional del Control de Armas Robóticas.

Una de las principales preocupaciones radica en la carrera de armas de la inteligencia artificial y el creciente uso de tecnologías digitales para subvertir los procesos democráticos.

Advierte sobre el hackeo potencial de armas automatizadas en la época de la ciberguerra: "Hay que tener robots razonables".

Conclusión

No me quiero imaginar las discusiones bizantinas que se derivarán del uso y abuso de los "robots asesinos" y/o de los extravíos de la inteligencia artificial para fines aviesos cuando ahora, en la fase del finiquito de las armas químicas, 'Occidente' engaña con su perversa siembra de pruebas: desde el escabroso asunto Skripal hasta las armas químicas con su montaje por los Cascos Blancos en las afueras de Damasco.


No hay comentarios:

Publicar un comentario