Advertising

Google revisa su política ética de IA, eliminando la prohibición de uso en armas y vigilancia

Google revisa su política ética de IA, eliminando la prohibición de uso en armas y vigilancia
Miércoles 05 Febrero 2025 - 07:36
Zoom

Google ha actualizado su política ética sobre inteligencia artificial (IA), eliminando su compromiso previo de no utilizar IA en armas o vigilancia. En su versión anterior de los "Principios de IA", la empresa se comprometía a evitar tecnologías de IA que pudieran causar daño, especialmente en áreas como armamento y vigilancia que violaran las normas internacionales. Sin embargo, la política revisada, anunciada recientemente, subraya que Google desarrollará IA "de manera responsable" y de acuerdo con "principios ampliamente aceptados de derecho internacional y derechos humanos."

En una publicación de blog, Demis Hassabis, director de Google DeepMind, y James Manyika, vicepresidente senior de laboratorios de investigación, explicaron que creen que las democracias deben liderar el desarrollo de la IA, guiadas por valores como la libertad, la igualdad y los derechos humanos. También enfatizaron que las empresas, gobiernos y organizaciones deben colaborar para crear IA que fomente el crecimiento global y apoye la seguridad nacional.

El recorrido ético de la IA de Google comenzó en 2018, cuando la empresa publicó por primera vez sus principios de IA tras las protestas de empleados sobre su participación en el Proyecto Maven del Departamento de Defensa de EE. UU., que utilizaba IA para asistir en ataques con drones militares. En respuesta a las preocupaciones de los empleados y las renuncias, Google decidió no renovar su contrato con el Pentágono y también se retiró de un acuerdo de computación en la nube por valor de 10 mil millones de dólares con el Departamento de Defensa.

La política revisada llega después de cambios significativos en el panorama político, incluida la toma de posesión del presidente de EE. UU., Joe Biden, el 20 de enero, seguida de la anulación de una orden ejecutiva de la administración anterior. Esta orden había exigido que las empresas que desarrollan IA compartieran los resultados de las pruebas de seguridad con el gobierno antes de lanzar nuevas tecnologías al público.

Añade tu comentario

300 / Caracteres restantes 300
Condiciones de publicación : No insultes al autor, a las personas, a los lugares sagrados, ni ataques religiones o la divinidad, evita incitación racista e insultos

Comentarios (0)

Las opiniones expresadas en los comentarios reflejan solo las de sus autores y no las de Lou.Press

Leer más