Internacional

Expertos de Google, Microsoft y Facebook sugieren al Pentágono que controle el uso de inteligencia artificial

El informe de la denominada Comisión de Innovación en Defensa se publica en medio de la creciente preocupación sobre los posibles riesgos del uso de inteligencia artificial en el ámbito militar.

La Comisión de Innovación en Defensa (DIB, por sus siglas en inglés), organización que asesora al Pentágono compuesta por miembros de Google, Microsoft y Facebook, y que se encarga de la incorporación de innovaciones tecnológicas de Silicon Valley en el Ejército de EE.UU., ha publicado este jueves un conjunto de "directrices éticas" para el uso de la inteligencia artificial (IA) por parte del Departamento de Defensa.

Los principios del DIB tienen carácter de recomendaciones y no son legalmente vinculantes, por lo que recae en el Pentágono determinar si van a llevarse a la práctica y cómo debe ocurrir.

"Ahora es el momento, en esta etapa temprana del resurgimiento del interés en la IA, de mantener discusiones serias sobre las normas de desarrollo y el uso de la IA  en un contexto militar, mucho antes de que haya un incidente", reza el documento.

Aunque el texto no fija límites estrictos, como esperarían todos aquellos que se oponen a la aplicación de IA en la esfera militar, sí que establece un conjunto de objetivos éticos que el Departamento de Defensa debería tener en cuenta a la hora de desarrollar nuevos sistemas con inteligencia militar.

En particular, los especialistas de la Junta barajan cinco principios clave: la utilización de IA en el Ejército de EE.UU. siempre debe ser responsable  (y bajo control humano permanente), equitativa  (para no causar daño no intencionado a las personas), rastreable  (para que los expertos técnicos tengan una comprensión adecuada de la tecnología), fiable  (para que la seguridad de los sistemas sea probada y garantizada) y gobernable  (los dispositivos tienen que disponer de un mecanismo de desactivación por si se descubre que actúan de forma inadecuada).

¿Conviene la IA al ámbito militar?

Los programas de IA, que pueden aprender de datos y tomar decisiones sin intervención humana, se aplican activamente para el análisis de gran cantidades de información. No obstante, su uso en un escenario de combate es percibido por algunos tecnólogos con escepticismo.

El año pasado, un grupo de 116 expertos en inteligencia artificial y robótica dirigieron a la ONU una petición —que también incluye la firma del fundador de SpaceX y Tesla— para prohibir el uso de las armas autónomas letales.

El Pentágono, por su parte, no comparte las preocupaciones sobre el riesgo de que este tipo de armas se convierta algún día en "la tercera revolución bélica ", según se indica en la petición, y sigue experimentando con programas de IA en ámbitos como, por ejemplo, los combates con tanques, donde sus algoritmos permitirían ver cómo se conforma el campo de batalla y sugerirían cuál es la mejor manera de hacer frente al enemigo.

En 2018 el Departamento de Defensa de EE.UU. inauguró el llamado Centro Conjunto de Inteligencia Artificial, que se ocupa de la coordinación de las actividades relacionadas con IA en todo el departamento militar. Ese mismo año el organismo dio a conocer su primer plan estratégico en materia de IA, centrado en la aceleración de su uso con fines militares y en competir con otras naciones,"en particular China y Rusia". (RT)