- 16:39Alerta en aerolíneas estadounidenses por desvíos tras ataques en Irán
- 16:09El ejército israelí recupera los cuerpos de tres rehenes en Gaza
- 15:38Starmer pide reducir tensiones en Oriente Medio y retomar el diálogo diplomático
- 15:08Irán despliega misiles avanzados Kheibar en su último ataque contra Israel
- 14:37Los países árabes piden calma tras los ataques estadounidenses a instalaciones nucleares iraníes
- 14:07EEUU e Israel cruzan línea roja dice canciller iraní antes de visita a Moscú
- 13:36Yemi Alade electrifica Mawazine 2025 con un poderoso espectáculo afro-pop
- 13:06Lazaro, Slim Kravata y Douk encienden el escenario de Salé en Mawazine 2025
- 12:35Ziad Bourji emociona al público de Rabat en su debut íntimo en Mawazine
Síguenos en Facebook
Google revisa su política ética de IA, eliminando la prohibición de uso en armas y vigilancia
Google ha actualizado su política ética sobre inteligencia artificial (IA), eliminando su compromiso previo de no utilizar IA en armas o vigilancia. En su versión anterior de los "Principios de IA", la empresa se comprometía a evitar tecnologías de IA que pudieran causar daño, especialmente en áreas como armamento y vigilancia que violaran las normas internacionales. Sin embargo, la política revisada, anunciada recientemente, subraya que Google desarrollará IA "de manera responsable" y de acuerdo con "principios ampliamente aceptados de derecho internacional y derechos humanos."
En una publicación de blog, Demis Hassabis, director de Google DeepMind, y James Manyika, vicepresidente senior de laboratorios de investigación, explicaron que creen que las democracias deben liderar el desarrollo de la IA, guiadas por valores como la libertad, la igualdad y los derechos humanos. También enfatizaron que las empresas, gobiernos y organizaciones deben colaborar para crear IA que fomente el crecimiento global y apoye la seguridad nacional.
El recorrido ético de la IA de Google comenzó en 2018, cuando la empresa publicó por primera vez sus principios de IA tras las protestas de empleados sobre su participación en el Proyecto Maven del Departamento de Defensa de EE. UU., que utilizaba IA para asistir en ataques con drones militares. En respuesta a las preocupaciones de los empleados y las renuncias, Google decidió no renovar su contrato con el Pentágono y también se retiró de un acuerdo de computación en la nube por valor de 10 mil millones de dólares con el Departamento de Defensa.
La política revisada llega después de cambios significativos en el panorama político, incluida la toma de posesión del presidente de EE. UU., Joe Biden, el 20 de enero, seguida de la anulación de una orden ejecutiva de la administración anterior. Esta orden había exigido que las empresas que desarrollan IA compartieran los resultados de las pruebas de seguridad con el gobierno antes de lanzar nuevas tecnologías al público.
Comentarios (0)