
La empresa modifica sus principios de IA y deja fuera la prohibición explícita sobre fines bélicos. ¿Qué quiere decir esto?
Google ha actualizado sus principios para la inteligencia artificial, y uno de los cambios más llamativos es la desaparición de su compromiso de no desarrollar armas basadas en IA. Hasta ahora, el documento incluía una sección específica que detallaba las aplicaciones que la compañía no exploraría, entre ellas, armamento y herramientas de vigilancia que violaran estándares internacionales.
Este cambio llega en un momento clave, cuando la competencia en IA se intensifica y otras empresas, como OpenAI, también han ajustado sus políticas antes de firmar acuerdos con el Pentágono.
Un ajuste en el enfoque de Google sobre la inteligencia artificial

En su documento anterior, Google especificaba que no abordaría aplicaciones de IA relacionadas con:
- Tecnologías diseñadas para causar daño a personas.
- Sistemas de armamento con IA como finalidad principal.
- Tecnologías de vigilancia que incumplieran normas internacionales.
- Aplicaciones que contravinieran el derecho internacional o los derechos humanos.
Sin embargo, la nueva versión ya no contiene esta sección. En su lugar, la compañía ha publicado un comunicado firmado por James Manyika (SVP de Google) y Demis Hassabis (director de Google DeepMind), donde mencionan su compromiso con el desarrollo responsable de la IA, sin hacer referencia explícita a la exclusión de armamento.
¿Por qué es relevante este cambio?
Aunque Google no ha anunciado nuevos contratos de defensa, este ajuste en su política deja la puerta abierta a posibles colaboraciones en proyectos militares en el futuro.
El antecedente más importante es el Proyecto Maven, una iniciativa del Pentágono en la que Google participó, utilizando IA para analizar imágenes captadas por drones e identificar objetivos en zonas de conflicto. Tras las protestas de sus empleados en 2018, la compañía decidió no renovar el contrato.
Ahora, sin una restricción clara en sus principios, Google podría replantear su relación con el sector de defensa, en un contexto donde gobiernos y ejércitos buscan integrar la inteligencia artificial en sus estrategias militares.
¿Qué significa esto para el futuro de la IA en el ámbito militar?
El desarrollo de IA para usos militares es un tema polémico. Mientras algunos defienden su uso para mejorar la seguridad y la defensa, otros advierten sobre los riesgos de automatizar sistemas de ataque y vigilancia.
La decisión de Google de modificar su postura refleja un cambio en la industria, donde cada vez más empresas están dispuestas a colaborar con gobiernos en proyectos de defensa. Resta por ver si la compañía anunciará acuerdos concretos en los próximos meses o si, como ocurrió con el Proyecto Maven, esta posibilidad generará resistencia dentro de su propio equipo.
Debe estar conectado para enviar un comentario.