Buscar en este blog

viernes, 8 de noviembre de 2019

Google, Facebook y Microsoft proponen que el Pentágono controle la inteligencia artificial



Hoy, Google, Facebook y Microsoft, tres gigantes de Silicon Valley, exhortan, mediante su segmento del Consejo de Innovación de Defensa (DIB) que preside Joshua Marcuse, a que el Pentágono controle la inteligencia artificial, lo cual la militariza 'de facto' en forma discrecional.

El Pentágono inventó internet con su sector DARPA y participó en la creación del hierático Consejo de Innovación de Defensa. Ya había advertido que "los políticos de Washington temen ser desplazados por el GAFAT —Google, Apple, Facebook, Amazon y Twitter—, que goza del padrinazgo del Pentágono mediante su segmento del DIB". ¿Será que también el mismo Pentágono teme a su propia creación?

Hoy tres gigantes de las joyas tecnológicas de Silicon Valley —Google, Facebook y Microsoft— regresan y/o restituyen parte de lo que le deben a la inventiva del Pentágono en el rubro de la inteligencia artificial (IA).

En medio de los angustiantes temores por la militarización de la IA que ya había iniciado el Pentágono, el DIB publicó una extensa serie de principios y recomendaciones para su "uso ético" (sic). El DIB teme el ascenso de China, quien ha anunciado que será el "líder global en IA en 2030", rubro en el que invierte abundantemente.

El DIB agrega que "de la misma forma, Rusia invierte fuertemente en las aplicaciones (sic) de la IA y experimenta tales sistemas en "escenarios vivientes de combates". El DIB reconoce que las "características y fragilidades (sic) únicas de la IA requieren nuevas maneras de vislumbrar sus posibles consecuencias negativas e indeseables". El Consejo "reafirma que el uso de la IA debe tener lugar en el contexto de la estructura ética existente en el Pentágono". Perturba que el DIB soslaye la barbárica conducta del Pentágono en sus guerras recientes desde Vietnam hasta Libia, pasando por Libia.

Son cinco los principios de ética en IA por los que aboga el Pentágono:

Responsable: ejercer niveles apropiados de juicio y permanecer responsables por el desarrollo, despliegue, uso y resultados de los sistemas de la IA.

Equitativo: el Pentágono debe tomar pasos deliberados para evitar el sesgo involuntario en el desarrollo y despliegue de los sistemas de IA en el combate y en el no combate que en involuntariamente causaría daño a las personas.

Rastreable: la disciplina en ingeniería en IA debe ser lo suficientemente avanzada para que los expertos técnicos posean una comprensión apropiada de la tecnología, de los procesos de desarrollo y los métodos operativos de sus sistemas de IA, que incluyan metodologías transparentes y auditables, fuentes de datos y diseño de procedimiento y documentación.

Confiable: los sistemas de IA deberán tener un explícito y bien definido dominio de uso, y la seguridad y robustez de tales sistemas deberán ser experimentadas y garantizadas durante su ciclo entero de vida.

Gobernable: deberán ser diseñadas y logradas para llenar el objetivo de su función mientras posee la capacidad para detectar y evitar daño involuntario o perturbación, y para la retirada humana o automática o la desactivación de los sistemas desplegados que demuestren una escalada involuntaria u otro tipo de conducta.

¿Cómo podrán ser aplicados estos etéreos cinco principios éticos en un campo de batalla real o en escenarios de juegos de guerra?

Luego el DIB propone 12 "recomendaciones" con el fin de articular e implementar sus polémicos principios, entre las que destacan: formalizar los principios éticos a través de canales oficiales del Pentágono, específicamente el recién creado Centro Conjunto AI (JAIC, por sus siglas en inglés), establecer un amplio comité de IA, cultivar y acrecentar el campo de la ingeniería de IA, al unísono de la Oficina del Subsecretario de Investigación e Ingeniería y los Laboratorios de Servicio.

Lo real es que los principios del DIB dejan mucho que desear: no son vinculantes y omiten escudriñar la militarización en curso de la IA por el Pentágono desde los tanques hasta los misiles, cuando sus algoritmos respectivos definirán el curso de la batalla con su preprogramación.

El Proyecto Quarterback —quizá en referencia al cerebro humano operativo en el juego de futbol americano— del Pentágono considera dotar a los tanques de guerra de todos los datos asequibles en los teatros de batalla, en conjunción con los datos de satélites, radares, drones y robots. Se trata de hacer el campo de batalla más transparente, mientras se depende de los robots y el software que "piensan en formas impredecibles" ya que la "guerra de los tanques no es tan fácil de predecir".

Con la ayuda de la IA, la toma de decisiones para sincronizar una batalla con tanques —que hoy toma 96 horas— pasaría a solamente 96 segundos.

En 2018, 116 expertos en robótica e IA enviaron una Carta Abierta a la Convención de la ONU sobre ciertas armas convencionales, con el fin de prohibir la utilización de "Sistemas de Armas Letales Autónomas" que "amenazan con convertirse en la tercera revolución de armas tecnológicas" y que "una vez desarrolladas, permitirán conflictos armados librados a una mayor escala a la conocida y en una escala de tiempo mucho más veloz que los humanos puedan entender".

El Pentágono se ha vuelto sordo a las imploraciones de los sabios y científicos del planeta y prosigue la militarización de la IA: en 2018 inauguró el Centro Conjunto de Inteligencia Artificial (JAIC), aunque su director, el teniente general Jack Shanahan, ante la ola de protestas prometió proporcionar "más claridad y transparencia".

Un grupo de empleados de Google han renunciado con el fin de protestar por el incesto del Pentágono con Silicon Valley, específicamente en el Proyecto Maven que emplea la IA de Google para montar los drones del ejército de EU. Shanahan festeja la militarización de la salud predictiva que usará la IA para el análisis de las historias clínicas, la clasificación de la imagenología o scanning médicos, la mitigación del síndrome de estrés postraumático y la prevención (sic) del suicidio.

La militarización —abierta o subrepticia— de la IA es antiética de entrada. La temática sobre la bioética de la IA es motivo del debate en China y en la Cámara de los Lores en Gran Bretaña. En Gran Bretaña el Comité Selecto de la Cámara de los Lores de la IA publicó un reporte donde no aborda en forma explícita la militarización de la IA, pero alerta a "nunca conceder el poder autónomo para dañar, destruir o engañar (sic) a los humanos".

En las antípodas conceptuales, Feng Xiang, profesor de leyes en la Universidad Tsinghua, argumenta que "la IA marcará el fin del capitalismo". Juzga que la "economía de mercado socialista" de China "puede proveer una solución" que "garantice la seguridad de la sociedad".

Los gigantes de Silicon Valley se pliegan finalmente a las exigencias del Pentágono sobre la estrategia de inteligencia artificial del Departamento de Defensa. ¿De qué herramientas, de cualquier índole, dispone el género humano para su preservación como especie viviente de la biósfera ante la ominosa militarización de la IA por el nada confiable Pentágono?

No hay comentarios:

Publicar un comentario