KPMG implementa botones de apagado para controlar riesgos de agentes de IA
KPMG ha desplegado un marco de seguridad integral para gestionar agentes de inteligencia artificial autónomos, incluyendo mecanismos de apagado de emergencia, en un contexto de rápida adopción de estas tecnologías en el entorno empresarial.
La estrategia de la firma considera a los agentes de IA como entidades gestionadas, cada uno con un identificador único y registrado mediante “fichas de sistema”. La supervisión se realiza desde un centro de operaciones centralizado con personal humano y sistemas de monitoreo. Los botones de apagado se reservan como última medida en caso de comportamientos fuera de control.
Según Sam Gloede, responsable de IA de confianza en KPMG, las organizaciones que aplican controles en múltiples niveles, como restricciones de acceso, pruebas de seguridad y supervisión continua, probablemente no necesitarán recurrir a estas medidas extremas.
La iniciativa surge tras una serie de incidentes recientes que han cuestionado la fiabilidad de los sistemas autónomos. A principios de marzo, Amazon sufrió una interrupción relacionada en parte con su asistente de codificación basado en IA, lo que provocó la pérdida de unas 120.000 órdenes y cerca de 1,6 millones de errores en su plataforma. Días después, otro fallo redujo en un 99 por ciento los pedidos en sus marketplaces de América del Norte, con un impacto estimado de 6,3 millones de pedidos en un solo día.
También se han registrado problemas de seguridad. El 9 de marzo, la empresa CodeWall informó que uno de sus agentes accedió a la plataforma interna de IA de McKinsey, obteniendo control total sobre sistemas de producción en pocas horas mediante vulnerabilidades en la documentación API. El incidente implicó acceso a millones de mensajes y cientos de miles de archivos, aunque McKinsey afirmó que no hubo uso indebido adicional de datos.
Más recientemente, un agente de IA en Meta provocó un incidente de seguridad de alta gravedad al publicar información técnica incorrecta sin autorización. Otro empleado siguió esas indicaciones, exponiendo datos sensibles durante casi dos horas.
El marco de KPMG propone ajustar el nivel de supervisión humana según el riesgo de cada tarea. Actividades simples pueden operar con control limitado, mientras que aquellas que implican datos sensibles requieren intervención directa. Actualmente, la firma utiliza unos 50 agentes de IA y desarrolla alrededor de 1.000 más tras adquirir la plataforma PrivateBlok.
Una encuesta de KPMG indica que el 92 por ciento de las empresas en Estados Unidos invierte en IA autónoma, y el 93 por ciento considera que su gestión será una capacidad clave en los próximos cinco años. A medida que crece su adopción, el desafío será garantizar que los sistemas de control evolucionen al mismo ritmo.
-
16:00
-
15:54
-
15:50
-
15:45
-
15:40
-
15:30
-
15:28
-
15:20
-
15:15
-
15:00
-
14:50
-
14:45
-
14:30
-
14:20
-
14:15
-
14:00
-
13:50
-
13:45
-
13:30
-
13:20
-
13:15
-
13:00
-
12:50
-
12:20
-
12:15
-
12:00
-
11:50
-
11:45
-
11:30
-
11:20
-
11:18
-
11:15
-
11:10
-
11:00
-
10:50
-
10:45
-
10:30
-
10:20
-
10:15
-
10:00
-
09:55
-
09:50
-
09:45
-
09:30
-
09:21
-
09:20
-
09:15
-
09:00
-
08:50
-
08:45
-
08:37
-
08:30
-
08:20
-
08:15
-
08:00
-
07:50
-
07:45
-
07:30
-
07:15
-
07:04
-
17:30
-
17:00
-
16:30
-
16:15