- 18:10El Gobierno se compromete a perseguir las filtraciones sobre las conversaciones de Sánchez y Ábalos
- 17:45Ábalos descarta denunciar los mensajes filtrados con Sánchez en medio de investigaciones en curso
- 17:20Comprendiendo la Ley Beckham de España: Lo que los estadounidenses deben saber
- 16:45Mensajes filtrados de WhatsApp revelan al PM de España, Pedro Sánchez, bajo una nueva luz
- 16:35Softbank vuelve a obtener beneficios con inversiones estratégicas en inteligencia artificial
- 16:10CIH Bank anuncia un aumento de capital significativo de 1.500 millones de MAD
- 16:05Suben los precios de consolas por aranceles y desafíos del sector
- 15:45Desafíos en el bienestar infantil: el camino de Marruecos hacia una mejor protección
- 15:34Dinamarca inaugura la planta de metanol verde más grande de Europa
Síguenos en Facebook
Google revisa su política ética de IA, eliminando la prohibición de uso en armas y vigilancia
Google ha actualizado su política ética sobre inteligencia artificial (IA), eliminando su compromiso previo de no utilizar IA en armas o vigilancia. En su versión anterior de los "Principios de IA", la empresa se comprometía a evitar tecnologías de IA que pudieran causar daño, especialmente en áreas como armamento y vigilancia que violaran las normas internacionales. Sin embargo, la política revisada, anunciada recientemente, subraya que Google desarrollará IA "de manera responsable" y de acuerdo con "principios ampliamente aceptados de derecho internacional y derechos humanos."
En una publicación de blog, Demis Hassabis, director de Google DeepMind, y James Manyika, vicepresidente senior de laboratorios de investigación, explicaron que creen que las democracias deben liderar el desarrollo de la IA, guiadas por valores como la libertad, la igualdad y los derechos humanos. También enfatizaron que las empresas, gobiernos y organizaciones deben colaborar para crear IA que fomente el crecimiento global y apoye la seguridad nacional.
El recorrido ético de la IA de Google comenzó en 2018, cuando la empresa publicó por primera vez sus principios de IA tras las protestas de empleados sobre su participación en el Proyecto Maven del Departamento de Defensa de EE. UU., que utilizaba IA para asistir en ataques con drones militares. En respuesta a las preocupaciones de los empleados y las renuncias, Google decidió no renovar su contrato con el Pentágono y también se retiró de un acuerdo de computación en la nube por valor de 10 mil millones de dólares con el Departamento de Defensa.
La política revisada llega después de cambios significativos en el panorama político, incluida la toma de posesión del presidente de EE. UU., Joe Biden, el 20 de enero, seguida de la anulación de una orden ejecutiva de la administración anterior. Esta orden había exigido que las empresas que desarrollan IA compartieran los resultados de las pruebas de seguridad con el gobierno antes de lanzar nuevas tecnologías al público.
Comentarios (0)