Ciencia y Tecnología
Google eliminó su compromiso de no usar IA para armas
Según el nuevo texto, el gigante tecnológico recurrirá a "mecanismos adecuados de supervisión humana"
5 de febrero de 2025
Tecnología.- Google ha actualizado sus normas éticas en relación al uso de la inteligencia artificial (IA), eliminando los principios que prometían evitar el uso de esta tecnología para la creación de armas y herramientas de vigilancia con fines peligrosos.


La cláusula en cuestión, que aseguraba que la empresa no diseñará ni desplegará IA para el desarrollo de "armas u otras tecnologías cuyo principal objetivo o aplicación sea causar o facilitar directamente daños a las personas", ni "tecnologías que recopilen o utilicen información para la vigilancia violando normas internacionalmente aceptadas", ha desaparecido de las políticas actualizadas.

La nueva versión se centra en tres principios: innovación audaz, desarrollo e implantación responsables, y progreso colaborativo, pero no menciona ni se compromete a no utilizar IA para fines dañinos o en el desarrollo de armas.

Respaldo a la seguridad nacional

El jefe de inteligencia artificial de la compañía, Demis Hassabis, y su vicepresidente sénior de tecnología y sociedad, James Manyika, defendieron la decisión asegurando que Google estaba actualizando sus principios relacionados con la inteligencia artificial porque "la tecnología ha evolucionado rápidamente" y actualmente "existe una competencia global por el liderazgo en materia de IA dentro de un panorama geopolítico cada vez más complejo".

"Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, fomente el crecimiento global y respalde la seguridad nacional", señalaron.

Según el nuevo texto, el gigante tecnológico recurrirá a "mecanismos adecuados de supervisión humana" y tendrá en cuenta las opiniones de los usuarios para "alinearse con sus objetivos, la responsabilidad social y los principios ampliamente aceptados del derecho internacional y los derechos humanos". Además, establece "un diseño riguroso, pruebas, monitoreo y salvaguardas para mitigar resultados no deseados o dañinos".

"Tecnología que puede matar a personas"

Por su parte, Margaret Mitchell, que codirigió el equipo de IA ética de Google, sugiere que la razón por la cual la compañía cambió su política es la posibilidad de que creará tecnología letal.

"Eliminar eso es borrar el trabajo que tantas personas en el ámbito de la IA ética y el activismo habían hecho en Google, y lo que es más problemático, significa que Google probablemente ahora trabajará en el despliegue directo de tecnología que puede matar a personas", dijo la experta a Bloomberg.
Sigue la información minuto a minuto en nuestro Telegram Instagram Facebook Twitter ¡La noticia en tus manos!
VÍA Equipo de Redacción Notitarde
FUENTE Actualidad RT