Google establece siete principios éticos para usar inteligencia artificial: promete no emplearla en armas o en vigilancia
Google se metió en un gran problema que bien pudo haberse evitado. Un problema principalmente de comunicación al no saber explicar en qué consistía Project Maven, la polémica iniciativa para el Departamento de Defensa de Estados Unidos que buscaba desarrollar inteligencia artificial para drones militares. Esto desató una tremenda reacción negativa principalmente en Google, donde más de 4.000 empleados firmaron una petición para que la compañía abandonara dicho proyecto.
Google finalmente cedió ante la presión de sus empleados, y el mundo, ya que su imagen se vio severamente dañada y desencadenó una crisis de identidad generaliza en el interior de la compañía. Por lo que hace unos días confirmaron su decisión de no seguir adelante con el proyecto. Ante esto, ahora Google busca limpiar su imagen al establecer siete principios que regirán el uso de la inteligencia artificial en futuros proyectos y desarrollos.
Control de daños tras la polémica de Project Maven
Todo parece indicar que estos siete principios éticos se elaboraron para calmar la preocupación sobre el trabajo de Google en Project Maven. De aquí se desprenden reglas básicas pero también hay elementos que llaman mucho la atención:
«Queremos dejar claro que, si bien no estamos desarrollando IA para su uso en armas, continuaremos trabajando con gobiernos y militares en muchas otras áreas. Éstas incluyen ciberseguridad, capacitación, reclutamiento militar, atención médica para veteranos, así como búsqueda y rescate».
¿Qué significa esto? Que Google seguirá buscando contratos militares y gubernamentales, ya que se trata de sectores que ahora mismo están invirtiendo miles de millones de dólares en servicios en la nube, y Google obviamente no quiere quedarse fuera de este jugoso negocio.
Los siete mandamientos de la IA de Google
En la carta firmada por Sundar Pichai, CEO de Google, se menciona que se han establecido «estándares concretos», es decir, no se trata de conceptos teóricos o flexibles, los cuales «regirán de manera activa nuestra investigación y desarrollo de productos e influirán en nuestras decisiones de negocio».
A partir de ahora, Google asegura que evaluará los proyectos de inteligencia artificial en base en los siguientes objetivos:
-
Que sea socialmente benéfica. Google dice que tomará en cuenta una amplia gama de factores sociales y económicos, y procederá en los casos en los que crean en los beneficios, como en áreas de atención médica, seguridad, energía, transporte, manufactura, entretenimiento y otras más.
-
Evitar crear o reforzar un sesgo injusto. Como lo veíamos con ‘Norman‘, en este punto la compañía asegura que trabajará para evitar «impactos injustos» en sus algoritmos, donde evitarán inyectar sesgo racial, sexual o político en la toma de decisiones automatizada.
-
Estar construida y probada para ser segura. Aquí mencionan que seguirán implementando estrictas prácticas de seguridad y protección para evitar resultados que generen daño. Asegurando que probarán las tecnologías de IA en entornos controlados y supervisarán su funcionamiento después de su implementación.
-
Ser responsable con las personas. «Nuestras tecnologías de IA estarán sujetas a la apropiada dirección y control humano». Es decir, una inteligencia artificial que siempre estará respaldada y bajo el control de un ser humano.
-
Incorporar principios de diseño de privacidad. A raíz del escándalo de Facebook, Google busca blindarse al asegurar que su IA respetará la privacidad de los datos que obtiene. Sin duda un punto importante al saber que Google usa IA en casi todos sus servicios, desde Gmail hasta Fotos y mucho más.
-
Mantener altos estándares de excelencia científica. Google sabe que la inteligencia artificial tiene el potencial de ayudar en nuevos ámbitos científicos y de investigación, por lo que se comprometen a apoyar la investigación abierta, el rigor intelectual, la integridad y la colaboración.
-
Estar disponible para usos que vayan de acuerdo con estos principios. Este punto envuelve a todos los anteriores y deja claro el error de Project Maven, ya que si algún proyecto va en contra de estos principios, simplemente no lo tomarán. Aquí Google especifica escenarios potencialmente dañinos o abusivos que serán evaluados de acuerdo a cuatro puntos: Propósito y uso principal, naturaleza y singularidad, escala y la naturaleza de la participación de Google.
Adicional a estos siete principios, Google garantiza que no diseñará o desplegará desarrollos en inteligencia artificial en las siguientes áreas:
- «Tecnologías que causan o pueden causar un daño general. Cuando exista un riesgo material de daño, procederemos sólo cuando consideremos que los beneficios superan sustancialmente los riesgos e incorporaremos las restricciones de seguridad apropiadas.»
- «Armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar de manera directa lesiones a las personas.»
- «Tecnologías que recopilan o usan información para la vigilancia que violan las normas internacionalmente aceptadas.»
- «Tecnologías cuyo propósito infringe principios de derecho internacional ampliamente aceptados y derechos humanos.»
Esta carta con principios éticos llega en un momento decisivo no sólo para Google, sino para una gran cantidad de compañías que están invirtiendo fuertes cantidades de dinero en desarrollos basados en inteligencia artificial.
Más información | Google
También te recomendamos
Diez trucos para conseguir que tu recién nacido no revolucione tu hogar (demasiado)
–
La noticia
Google establece siete principios éticos para usar inteligencia artificial: promete no emplearla en armas o en vigilancia
fue publicada originalmente en
Xataka
por
Raúl Álvarez
.
Xataka
Enlace: Google establece siete principios éticos para usar inteligencia artificial: promete no emplearla en armas o en vigilancia