La compañía del famoso motor de búsqueda acaba de dejar a todos con la boca abierta, cambió oficialmente sus principios éticos sobre la inteligencia artificial. La compañía acaba de eliminar de la web su compromiso de no crear tecnologías de IA para armas o sistemas de vigilancia, abriendo la puerta a posibles colaboraciones en el sector militar y de seguridad nacional.
Pero tenga cuidado porque esta modificación no es algo que simplemente implique un cambio sin más y Demis Hassabis, jefe de inteligencia artificial en Google, explicó que la situación geopolítica ha cambiado y hay una carrera en el campo de la IA que exige un nuevo enfoque.
«Creemos que las democracias deben liderar el desarrollo de la IA, guiada por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos», dice Hassabis.
En pocas palabras, Google ya no se compromete explícitamente a prevenir aplicaciones de inteligencia artificial militar. La compañía ahora habla de «mitigar los resultados no deseados» y alinearse con los principios internacionales de los derechos humanos.
La raza armamentista de la inteligencia artificial ya no es algo de ciencia ficción
Este cambio de Google es que abarca algo más grande y es esa simbiosis la que comienza a mirar entre la inteligencia artificial y su aplicación militar.
James Manyika, vicepresidente senior de tecnología y sociedad de Google, argumentó que «las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y apoya la seguridad nacional».
Tomando estas palabras en cuenta, Por supuesto, Mountain View no va a voltear la cabeza del otro ladoSin embargo, reconocen las necesidades, aunque se espera que la mayor disposición de Google colabore con las agencias gubernamentales en proyectos relacionados con la defensa y la seguridad nacionales.
Además, han confirmado que «seguirá siendo consistente con los principios ampliamente aceptados del derecho internacional y los derechos humanos, siempre evaluando el trabajo específico y evaluando cuidadosamente si los beneficios exceden sustancialmente los riesgos potenciales».
Además, en los últimos años, otras grandes compañías de tecnología han vivido dilemas similares en el uso de IA en el mundo militar. Microsoft, por ejemplo, ha mantenido contratos con el Pentágono para el desarrollo de tecnologías de realidad aumentada para uso militar, a pesar de las protestas de algunos de sus empleados.
Seguramente otros siguen los pasos de ahora Google y tal vez esto alienta a todos a una regulación de la IA, pero no hay duda de que esto, básicamente, Acelera una carrera armamentista peligrosa que agrega leña al fuego en un planeta dividido y con dos grandes figuras que compiten por el trono de IA: Estados Unidos y China.
Las organizaciones de derechos humanos ya han lanzado una alarma debido al uso potencial inadecuado de estas tecnologías, especialmente en países especialmente autoritarios o con una situación política y social inestable. Sin embargo, aquellos que defienden esta nueva política comentan que es vital que las democracias llevan al desarrollo de IA a garantizar precisamente que están alineados con los valores éticos y democráticos. Al final, si no lo hacen, lo harán otros.
Saber Cómo trabajamos en Informática.
Etiquetas: Inteligencia artificial, software
Con información de Telam, Reuters y AP









