La inteligencia químico (IA) es muy prometedora para mejorar la ciberdefensa y entregar la vida de los profesionales de la seguridad. Puede ayudar a los equipos a aventajar la ahogo de las alertas, detectar patrones más rápido y conquistar un nivel de escalera que los analistas humanos por sí solos no pueden igualar. Pero hacer efectividad ese potencial depende de apoyar los sistemas que lo hacen posible.
Cada ordenamiento que experimenta con IA en operaciones de seguridad, conscientemente o no, está ampliando su superficie de ataque. Sin una gobernanza clara, controles de identidad sólidos y visibilidad de cómo la IA toma sus decisiones, incluso las implementaciones proporcionadamente intencionadas pueden ocasionar riesgos más rápido de lo que los reducen. Para beneficiarse verdaderamente de la IA, los defensores deben afrontar su seguridad con el mismo rigor que aplican a cualquier otro sistema crítico. Eso significa establecer confianza en los datos de los que aprende, responsabilidad por las acciones que toma y supervisión de los resultados que produce. Cuando se protege correctamente, la IA puede amplificar la capacidad humana en puesto de reemplazarla para ayudar a los profesionales a trabajar de guisa más inteligente, contestar más rápido y defenderse de guisa más efectiva.
Establecer confianza para los sistemas de IA agentes
A medida que las organizaciones comienzan a integrar la IA en los flujos de trabajo defensivos, la seguridad de la identidad se convierte en la cojín de la confianza. Cada maniquí, script o agente autónomo que opera en un entorno de producción ahora representa una nueva identidad: una identidad capaz de entrar a datos, emitir comandos e influir en los resultados defensivos. Si esas identidades no se gobiernan adecuadamente, las herramientas destinadas a reforzar la seguridad pueden convertirse silenciosamente en fuentes de peligro.
La aparición de sistemas de IA agente hace que esto sea especialmente importante. Estos sistemas no sólo analizan; pueden efectuar sin intervención humana. Clasifican alertas, enriquecen el contexto o activan guías de respuesta bajo la autoridad delegada de operadores humanos. Cada acto es, en sensación, una transacción de confianza. Esa confianza debe estar vinculada a la identidad, autenticada mediante políticas y auditable de extremo a extremo.
Los mismos principios que protegen a las personas y los servicios deben aplicarse ahora a los agentes de IA:
- Credenciales con efecto y privilegio pequeño para respaldar que cada maniquí o agente pueda entrar solo a los datos y funciones necesarios para su tarea.
- Autenticación sólida y rotación de claves para evitar la suplantación de identidad o la fuga de credenciales.
- Procedencia de la actividad y registro de auditoría para que cada acto iniciada por la IA pueda rastrearse, validarse y revertirse si es necesario.
- Segmentación y aislamiento para evitar el comunicación entre agentes, asegurando que un proceso comprometido no pueda influir en otros.
En la praxis, esto significa tratar cada sistema de IA agente como una identidad de primera clase internamente de su entorno de IAM. Cada uno debe tener un propietario definido, una política de ciclo de vida y un efecto de monitoreo, como cualquier heredero o cuenta de servicio. Los equipos defensivos deben repasar continuamente lo que esos agentes pueden hacer, no sólo lo que estaban destinados a hacer, porque la capacidad a menudo varía más rápido que el diseño. Una vez establecida la identidad como cojín, los defensores pueden centrar su atención en proteger el sistema en común.
Proteger la IA: mejores prácticas para el éxito
Proteger la IA comienza con la protección de los sistemas que la hacen posible: los modelos, los canales de datos y las integraciones que ahora están integrados en las operaciones de seguridad cotidianas. Precisamente como
Para proteger las redes y los puntos finales, los sistemas de IA deben tratarse como una infraestructura de empresa crítica que requiere una defensa continua y en capas.
El plan SANS Secure AI Blueprint describe un Proteger la IA pista que proporciona un punto de partida claro. Construido sobre el Pautas críticas de seguridad de IA de SANSel plan define seis dominios de control que se traducen directamente en la praxis:
- Controles de comunicación: Aplique privilegios mínimos y autenticación sólida a cada maniquí, conjunto de datos y API. Registre y revise el comunicación continuamente para evitar el uso no facultado.
- Controles de datos: Valide, desinfecte y clasifique todos los datos utilizados para entrenamiento, aumento o inferencia. El almacenamiento seguro y el seguimiento del condición reducen el peligro de envenenamiento del maniquí o fuga de datos.
- Estrategias de implementación: Fortalezca los entornos y los canales de IA con sandboxing, activación de CI/CD y red teaming antaño del propagación. Trate la implementación como un evento controlado y auditable, no como un test.
- Seguridad de inferencia: Proteja los modelos contra la inyección rápida y el uso indebido aplicando energía de entrada/salida, barreras de seguridad y rutas de escalamiento para acciones de parada impacto.
- Audición: Observe continuamente el comportamiento del maniquí y los resultados en pesquisa de desviaciones, anomalías y signos de compromiso. La telemetría eficaz permite a los defensores detectar la manipulación antaño de que se propague.
- Seguridad del maniquí: Versione, firme y verifique la integridad de los modelos a lo espléndido de su ciclo de vida para respaldar la autenticidad y evitar intercambios o reentrenamiento no autorizados.
Estos controles se alinean directamente Ámbito de administración de riesgos de IA del NIST y el OWASP Top 10 para LLMque destaca las vulnerabilidades más comunes y consecuentes en los sistemas de IA, desde la inyección rápida y las integraciones de complementos inseguras hasta el envenenamiento de modelos y la exposición de datos. La aplicación de mitigaciones de esos marcos internamente de estos seis dominios ayuda a traducir la orientación en defensa operativa. Una vez que estas bases estén establecidas, los equipos pueden centrarse en utilizar la IA de guisa responsable sabiendo cuándo encomendar en la automatización y cuándo sustentar a los humanos informados.
Seguridad entre aumento y automatización
Los sistemas de inteligencia químico son capaces de ayudar a los profesionales humanos como un pasante que nunca duerme. Sin incautación, es fundamental que los equipos de seguridad diferencien qué automatizar y qué aumentar. Algunas tareas se benefician de la automatización total, especialmente aquellas que son repetibles, mensurables y de bajo peligro si ocurre un error. Sin incautación, otros exigen supervisión humana directa porque el contexto, la intuición o la ética importan más que la velocidad.
El ganancia de amenazas, el estudio de registros y la deduplicación de alertas son candidatos principales para la automatización. Se prostitución de procesos basados en patrones y con gran cantidad de datos, en los que la coherencia supera a la creatividad. Por el contrario, las decisiones sobre el efecto, la atribución y la respuesta de los incidentes dependen de un contexto que la IA no puede comprender por completo. En este caso, la IA debería ayudar mostrando indicadores, sugiriendo próximos pasos o resumiendo los hallazgos mientras los profesionales conservan la autoridad para tomar decisiones.
Encontrar ese seguridad requiere sazón en el diseño del proceso. Los equipos de seguridad deben clasificar los flujos de trabajo según su tolerancia al error y el costo de las fallas de automatización. Siempre que el peligro de falsos positivos o de matices perdidos sea parada, mantenga a los humanos informados. Dondequiera que la precisión pueda medirse objetivamente, dejemos que la IA acelere el trabajo.
¡Únase a nosotros en SANS Surge 2026!
Profundizaré en este tema durante mi discurso de tolerancia en SANS Surge 2026 (23-28 de febrero de 2026), donde exploraremos cómo los equipos de seguridad pueden respaldar que los sistemas de IA sean seguros. Si su ordenamiento está avanzando rápidamente en la apadrinamiento de la IA, este evento le ayudará a avanzar de forma más segura. Únase a nosotros para conectarse con pares, asimilar de expertos y ver cómo es verdaderamente la IA segura en la praxis.
Regístrese para SANS Surge 2026 aquí.
Nota: Este artículo fue aportado por Frank Kim, miembro del Instituto SANS.