Google ha creado un código de ética en la inteligencia artificial: son 7 puntos en los que prohibe el desarrollo de armas autónomas. Pero los principios dejan suficiente margen de maniobra a Google para beneficiarse de lucrativas ofertas de defensa.

El anuncio llega tras una significativa protesta interna sobre el uso de la tecnología de inteligencia artificial de Google. Esto, tras una iniciativa del Departamento de Defensa llamada Algorithmic Warfare Cross-Functional Team. El objetivo de este proyecto, conocido como Project Mavenes mejorar la exactitud de ataques con drones, entre otros.

TE PODRÍA INTERESAR · DART: emprendimiento chileno previene ceguera con IA

En mayo, una docena de trabajadores de Google renunciaron por este escándalo, y muchos otros firmaron una carta abierta protestando.

Esto captura el miedo que muchos tienen sobre cómo la tecnología podría ayudar a automatizar la guerra en el futuro. Sin embargo, la situación no es fácil.

La inteligencia artificial podría ayudar a hacer algunos sistemas de armas más seguras y menos propensas a error. También hay muchas aplicaciones mundanas de la inteligencia artificial en la industria de defensa. Google no quiere desconocer este inmenso mercado potencial para su tecnología de inteligencia artificial en la nube.

Ética en la inteligencia artificial: los 7 principios de Google

El CEO de Google, Sundar Pichai, anunció el nuevo código de ética en la inteligencia artificial. Este sugiere siete principios para guiar el uso de la inteligencia artificial de Google, que debe:

  1. Beneficiar a la sociedad.
  2. Evitar el sesgo de los algoritmos.
  3. Respetar la privacidad.
  4. Ser probado por seguridad.
  5. Rendir cuentas públicamente.
  6. Mantener el rigor científico.
  7. Estar disponible para otros de acuerdo con los mismos principios.

Pero Pichai también se tomó el trabajo de asegurar que Google no permitiría que su tecnología de inteligencia artificial sea usada para desarrollar cualquier cosa que pueda provocar daño, incluyendo «armas u otras tecnologías cuyo propósito principal o su implementación es causar o facilitar directamente lesiones a personas».

Pichai dijo que Google también prohibiría el desarrollo de tecnología de vigilancia que violara las normas internacionalmente aceptadas sobre derechos humanos, o cualquier tecnología que contraviniera leyes internacionales.

Inteligencia artificial y defensa

La inteligencia artificial se está desarrollando de manera muy rápida, y Google se ha preocupado de otros problemas que involucran a proyectos relacionados con este tema. Uno de sus sistemas de visión computarizada, por ejemplo, repetidamente identificó mal a personas de ascendencia africana como gorilas.

Los usos militares de la inteligencia artificial podrían ser cada vez más polémicos a medida que la tecnología es adoptada en nuevas formas y las compañías buscan vender su nube de tecnología de inteligencia artificial los más extensamente posible.

Machine learning  y la inteligencia artificial se volverán inevitablemente más importantes para los trabajos de inteligencia y defensa. Otras empresas tecnológicas de Estados Unidos, incluyendo Amazon y Microsoft, han presentado ofertas multimillonarias para proyectos de cloud computing con el Pentágono.