- 16:36Andrew Murrison: Marruecos un baluarte de estabilidad en África
- 16:06España confirma su apoyo a la propuesta de autonomía marroquí sobre el Sahara
- 15:35El primer ministro palestino elogia el apoyo permanente del rey Mohammed VI a Palestina
- 15:05India extiende visita a Washington para resolver desacuerdos en acuerdo comercial
- 14:34Entra en vigor la reducción de aranceles de EE. UU. a coches y piezas aeronáuticas del Reino Unido
- 14:04Las masacres sectarias en Siria amenazan una transición frágil
- 13:33El tribunal británico avala la exportación de piezas del F-35 a Israel pese a objeciones legales
- 13:0312 muertos en explosión en fábrica farmacéutica en India
- 12:20Separadas a los 3 años, prosperando a los 19: el extraordinario viaje de las gemelas de Melbourne
Síguenos en Facebook
Google revisa su política ética de IA, eliminando la prohibición de uso en armas y vigilancia
Google ha actualizado su política ética sobre inteligencia artificial (IA), eliminando su compromiso previo de no utilizar IA en armas o vigilancia. En su versión anterior de los "Principios de IA", la empresa se comprometía a evitar tecnologías de IA que pudieran causar daño, especialmente en áreas como armamento y vigilancia que violaran las normas internacionales. Sin embargo, la política revisada, anunciada recientemente, subraya que Google desarrollará IA "de manera responsable" y de acuerdo con "principios ampliamente aceptados de derecho internacional y derechos humanos."
En una publicación de blog, Demis Hassabis, director de Google DeepMind, y James Manyika, vicepresidente senior de laboratorios de investigación, explicaron que creen que las democracias deben liderar el desarrollo de la IA, guiadas por valores como la libertad, la igualdad y los derechos humanos. También enfatizaron que las empresas, gobiernos y organizaciones deben colaborar para crear IA que fomente el crecimiento global y apoye la seguridad nacional.
El recorrido ético de la IA de Google comenzó en 2018, cuando la empresa publicó por primera vez sus principios de IA tras las protestas de empleados sobre su participación en el Proyecto Maven del Departamento de Defensa de EE. UU., que utilizaba IA para asistir en ataques con drones militares. En respuesta a las preocupaciones de los empleados y las renuncias, Google decidió no renovar su contrato con el Pentágono y también se retiró de un acuerdo de computación en la nube por valor de 10 mil millones de dólares con el Departamento de Defensa.
La política revisada llega después de cambios significativos en el panorama político, incluida la toma de posesión del presidente de EE. UU., Joe Biden, el 20 de enero, seguida de la anulación de una orden ejecutiva de la administración anterior. Esta orden había exigido que las empresas que desarrollan IA compartieran los resultados de las pruebas de seguridad con el gobierno antes de lanzar nuevas tecnologías al público.
Comentarios (0)