Google modificó su política sobre inteligencia artificial (IA) y eliminó su compromiso previo de no desarrollar tecnologías para armas o vigilancia.
La nueva versión, anunciada este martes, establece que la empresa utilizará IA de manera «responsable» y en línea con el derecho internacional y los derechos humanos, pero sin excluir aplicaciones militares o de seguridad. Este cambio marca un giro respecto a su postura de 2018, cuando renunció a un contrato con el Pentágono tras protestas internas.
El ajuste en la política de Google ocurre tras la toma de posesión de Donald Trump, quien revirtió restricciones impuestas por Joe Biden a la IA. En 2018, empleados de Google criticaron la participación de la empresa en el Proyecto Maven, que buscaba usar IA para identificar objetivos militares con drones.
Ahora, la compañía parece estar abierta a nuevas colaboraciones con el Gobierno, en un contexto donde la administración Trump busca fortalecer la industria tecnológica con inversiones en IA.
Google no ha aclarado si ya está trabajando en proyectos de seguridad o defensa, pero la actualización de su política sugiere un posible acercamiento a contratos gubernamentales.
La empresa insiste en que la IA debe desarrollarse bajo principios éticos, aunque sin las limitaciones que antes impedían su uso en armamento o vigilancia. Este cambio podría generar nuevas controversias dentro de la compañía y entre defensores de derechos digitales.