Por Mente Alternativa
Google ha modificado sus principios éticos en el desarrollo de inteligencia artificial, eliminando compromisos previos que prohibían el uso de esta tecnología en armas y vigilancia. Esta decisión, anunciada recientemente, marca un giro en la estrategia de la compañía y plantea interrogantes sobre el impacto de la IA en la seguridad y los derechos humanos.
Desde su primera versión, las directrices éticas de Google incluían un apartado titulado “Aplicaciones que no perseguiremos”, que excluía claramente el uso de IA en armamento, vigilancia masiva y otras aplicaciones que pudieran causar daño generalizado. Sin embargo, la versión actualizada ha eliminado estas prohibiciones, lo que ha despertado inquietudes en la comunidad tecnológica y entre defensores de los derechos civiles.
Ejecutivos como Demis Hassabis y James Manyika han justificado este cambio señalando que las empresas de tecnología en países democráticos deben colaborar con gobiernos y sectores de seguridad nacional para garantizar que la IA se desarrolle en alineación con valores como la libertad y los derechos humanos. Según ellos, es fundamental que la IA se utilice con supervisión humana y medidas de mitigación de riesgos.
No obstante, los críticos consideran que este giro refleja un acercamiento creciente entre las grandes tecnológicas y el sector militar, lo que podría erosionar las garantías éticas en el desarrollo de la IA. También argumentan que la eliminación de estas prohibiciones pone en duda la autenticidad del compromiso de Google con los principios de la inteligencia artificial responsable.
El debate sobre el uso ético de la IA sigue creciendo a medida que esta tecnología avanza rápidamente. La decisión de Google podría marcar un precedente para otras empresas, impulsando un diálogo más amplio sobre los límites y responsabilidades en la aplicación de la inteligencia artificial.
