- 17:20Air Nostrum amplía sus rutas de verano entre España y Marruecos
- 16:45Corruption allegations deepen around spain’s prime minister
- 16:15Dos escoceses asesinados en un presunto ajuste de cuentas vinculado al narcotráfico en el sur de España
- 15:45Docenas de artistas boicotean el festival Sónar de Barcelona por vínculos con la ocupación israelí
- 15:10España cancela contrato de 285 millones de euros con filial israelí de armamento
- 14:45El desempleo en España cae por debajo de los 2,5 millones por primera vez desde 2008
- 14:15La economía de Marruecos crece un 3.8% en 2024 a pesar de los desequilibrios sectoriales
- 12:50Artistas abandonan el festival Sonar en España en apoyo a los palestinos
- 12:20El PIF de Arabia Saudita se asocia con la FIFA para la Copa Mundial de Clubes 2025
Síguenos en Facebook
Google revisa su política ética de IA, eliminando la prohibición de uso en armas y vigilancia
Google ha actualizado su política ética sobre inteligencia artificial (IA), eliminando su compromiso previo de no utilizar IA en armas o vigilancia. En su versión anterior de los "Principios de IA", la empresa se comprometía a evitar tecnologías de IA que pudieran causar daño, especialmente en áreas como armamento y vigilancia que violaran las normas internacionales. Sin embargo, la política revisada, anunciada recientemente, subraya que Google desarrollará IA "de manera responsable" y de acuerdo con "principios ampliamente aceptados de derecho internacional y derechos humanos."
En una publicación de blog, Demis Hassabis, director de Google DeepMind, y James Manyika, vicepresidente senior de laboratorios de investigación, explicaron que creen que las democracias deben liderar el desarrollo de la IA, guiadas por valores como la libertad, la igualdad y los derechos humanos. También enfatizaron que las empresas, gobiernos y organizaciones deben colaborar para crear IA que fomente el crecimiento global y apoye la seguridad nacional.
El recorrido ético de la IA de Google comenzó en 2018, cuando la empresa publicó por primera vez sus principios de IA tras las protestas de empleados sobre su participación en el Proyecto Maven del Departamento de Defensa de EE. UU., que utilizaba IA para asistir en ataques con drones militares. En respuesta a las preocupaciones de los empleados y las renuncias, Google decidió no renovar su contrato con el Pentágono y también se retiró de un acuerdo de computación en la nube por valor de 10 mil millones de dólares con el Departamento de Defensa.
La política revisada llega después de cambios significativos en el panorama político, incluida la toma de posesión del presidente de EE. UU., Joe Biden, el 20 de enero, seguida de la anulación de una orden ejecutiva de la administración anterior. Esta orden había exigido que las empresas que desarrollan IA compartieran los resultados de las pruebas de seguridad con el gobierno antes de lanzar nuevas tecnologías al público.
Comentarios (0)