15.5 C
Madrid
sábado, octubre 25, 2025
spot_img
spot_img

Cómo implementar AI de manera más segura a escala

La inteligencia sintético está impulsando un cambio masivo en la productividad empresarial, desde las terminaciones de código de Github Copilot hasta los chatbots que extraen bases de conocimiento interno para respuestas instantáneas. Cada nuevo agente debe autenticarse a otros servicios, hinchando silenciosamente a la población de identidades no humanas (NHIS) en las nubes corporativas.

Esa población ya está abrumando la empresa: muchas empresas ahora hacen malabarismos al menos 45 identidades de máquina para cada legatario humano. Las cuentas de servicio, los bots de CI/CD, los contenedores y los agentes de IA necesitan secretos, más comúnmente en forma de claves, tokens o certificados API, para conectarse de forma segura a otros sistemas para hacer su trabajo. El mensaje del estado de secretos de Gitguardian se extiende 2025 revela el costo de esta expansión: sobre 23.7 millones de secretos Surgió en Github manifiesto solo en 2024. Y en ocasión de mejorar la situación, los repositorios con copiloto habilitaron la fuga de secretos 40 por ciento más a menudo.

Nhis no son personas

A diferencia de los seres humanos que inician sesión en sistemas, NHIS rara vez tiene políticas para exigir la rotación de credenciales, permisos de importancia estrechamente o cuentas de desmantelamiento no utilizadas. Dejados sin llevar la batuta, tejen una densa y opaca red de conexiones de stop aventura que los atacantes pueden explotar mucho luego de que cierto recuerde que existen esos secretos.

La acogida de IA, especialmente modelos de idiomas grandes y la coexistentes de recuperación acuática (RAG), ha aumentado dramáticamente la velocidad y el bombeo en el que puede ocurrir esta expansión inductora de riesgos.

Considere un chatbot de soporte interno impulsado por un LLM. Cuando se le preguntó cómo conectarse a un entorno de explicación, el BOT podría recuperar una página de confluencia que contiene credenciales válidas. El chatbot puede exponer sin saberlo secretos a cualquiera que haga la pregunta correcta, y los registros pueden filtrar fácilmente esta información a quien tenga entrada. Peor aún, en este atmósfera, el LLM le dice a sus desarrolladores que usen esta credencial de texto sin formato. Los problemas de seguridad pueden acumularse rápidamente.

Sin incautación, la situación no es desesperada. De hecho, si se implementan modelos de gobierno adecuados en torno a la trámite de NHIS y los secretos, los desarrolladores pueden innovar y desplegar más rápido.

LEER  Fallas de SYSAID en Active Attack habilita el acceso a archivos remotos y SSRF

Cinco controles procesables para aminorar el aventura de NHI relacionado con la IA

Las organizaciones que buscan controlar los riesgos de NHIS impulsados ​​por la IA deben centrarse en estas cinco prácticas procesables:

  1. Auditar y erradicar fuentes de datos
  2. Centralice su trámite de NHIS existente
  3. Evitar fugas de secretos en implementaciones de LLM
  4. Mejorar la seguridad de registro
  5. Restringir el entrada a datos de IA

Echemos un vistazo más de cerca a cada una de estas áreas.

Auditar y erradicar fuentes de datos

Los primeros LLMS estaban vinculados solo a los conjuntos de datos específicos en los que fueron entrenados, convirtiéndolos en novedades con capacidades limitadas. La ingeniería de la coexistentes de recuperación de la coexistentes (RAG) cambió esto al permitir que LLM acceda a fuentes de datos adicionales según sea necesario. Desafortunadamente, si hay secretos presentes en estas fuentes, las identidades relacionadas ahora corren el aventura de ser abusados.

Las fuentes de datos, incluida la plataforma de trámite de proyectos JIRA, las plataformas de comunicación como Slack y las bases de conocimiento como Confluence, no estaban construidas con IA o secretos en mente. Si cierto agrega una secreto API de texto sin formato, no hay salvaguardas para alertarlo de que esto es peligroso. Un chatbot puede convertirse fácilmente en un motor de ritmo de secretos con la solicitud correcta.

La única forma segura de evitar que su LLM se filtre esos secretos internos es eliminar los secretos presentes o al menos revocar cualquier entrada que tengan. Una credencial inválida no conlleva ningún aventura inmediato de un atacante. Idealmente, puede eliminar estas instancias de cualquier secreto por completo ayer de que su IA pueda recuperarlo. Gracias a Dios, hay herramientas y plataformas, como Gitguardian, que pueden hacer que este proceso sea lo más indoloro posible.

Centralice su trámite de NHIS existente

La cita «Si no puede medirlo, no puede mejorarlo» se atribuye con anciano frecuencia a Lord Kelvin. Esto es muy cierto para la gobernanza de identidad no humana. Sin hacer un cómputo de todas las cuentas de servicio, bots, agentes y tuberías que tiene actualmente, hay pocas esperanzas de que pueda aplicar reglas y ámbitos efectivos en torno a New NHIS asociados con su IA agente.

Lo único que tienen en popular esos tipos de identidades no humanas es que todos tienen un secreto. No importa cómo defina NHI, todos definimos los mecanismos de autenticación de la misma modo: el secreto. Cuando enfocamos nuestros inventarios a través de esta lupa, podemos colapsar nuestro enfoque con el almacenamiento y la trámite adecuados de los secretos, que está allí de ser una nueva preocupación.

LEER  Un nuevo enfoque para un desafío de una década

Hay muchas herramientas que pueden hacer que esto se pueda alcanzar, como el manager de la cúpula de Hashicorp, Cybark o AWS Secrets. Una vez que todos son administrados y contabilizados de modo central, podemos suceder de un mundo de credenciales de larga duración en torno a una donde la rotación es automatizada y aplicada por la política.

Evitar fugas de secretos en implementaciones de LLM

Los servidores del Protocolo de contexto del maniquí (MCP) son el nuevo standard de cómo la IA Agentic accede a servicios y fuentes de datos. Anteriormente, si deseaba configurar un sistema de IA para obtener a un apelación, necesitaría conectarlo usted mismo, descubriéndolo a medida que avanza. MCP introdujo el protocolo que AI puede conectarse al proveedor de servicios con una interfaz estandarizada. Esto simplifica las cosas y disminuye la posibilidad de que un desarrollador codifique una credencial para que la integración funcione.

En uno de los documentos más alarmantes, los investigadores de seguridad de Gitguardian han publicado, descubrieron que el 5.2% de todos los servidores MCP que podían encontrar contenían al menos un secreto codificado. Esto es notablemente más incorporación que la tasa de ocurrencia del 4.6% de los secretos expuestos observados en todos los repositorios públicos.

Al igual que con cualquier otra tecnología que despliegue, una guepardo de salvaguardas al principio del ciclo de vida del explicación de software puede evitar una libra de incidentes más delante. Atrapar un secreto codificado cuando todavía está en una rama de características significa que nunca se puede fusionar y destinar a la producción. Anexar detección de secretos al flujo de trabajo del desarrollador a través de gits git o extensiones de editor de código puede significar que las credenciales de texto sin formato nunca llegan a los reposadores compartidos.

Mejorar la seguridad de registro

Los LLM son cajas negras que toman solicitudes y dan respuestas probabilísticas. Si adecuadamente no podemos sintonizar la vectorización subyacente, podemos decirles si la salida es la esperada. Los ingenieros de IA y los equipos de formación involuntario registran todo, desde el aviso original, el contexto recuperado y la respuesta generada para ajustar el sistema para mejorar sus agentes de IA.

Agentes de IA y la identidad no humana

Si se expone un secreto en cualquiera de esos pasos registrados en el proceso, ahora tiene múltiples copias del mismo secreto filtrado, muy probablemente en una aparejo o plataforma de terceros. La mayoría de los equipos almacenan registros en cubos en la cúmulo sin controles de seguridad sintonizables.

LEER  Una inmersión profunda en AI y NHI

La ruta más segura es anexar un paso de desinfección ayer de que los registros se almacenen o envíen a un tercero. Esto requiere un esfuerzo de ingeniería para configurar, pero nuevamente, herramientas como GGShield de Gitguardian están aquí para ayudar con el escaneo de secretos que se pueden invocar programáticamente de cualquier script. Si el secreto se frota, el aventura se reduce considerablemente.

Restringir el entrada a datos de IA

¿Debería su LLM tener entrada a su CRM? Esta es una pregunta difícil y en gran medida situacional. Si se negociación de una aparejo de ventas interna bloqueada detrás de SSO que puede inquirir rápidamente las notas para mejorar la entrega, podría estar adecuadamente. Para un chatbot de servicio al cliente en la página principal de su sitio web, la respuesta es una empresa no.

Al igual que debemos seguir el principio de pequeño privilegio al establecer los permisos, debemos aplicar un principio similar del pequeño entrada para cualquier IA que implementemos. La tentación de otorgar el entrada completo a un agente de IA a todo en nombre de las cosas por exceso de velocidad es muy ilustre, ya que no queremos encerrar nuestra capacidad para innovar demasiado temprano. Otorgar muy poco entrada derrota el propósito de los modelos de trapo. Otorgar demasiado entrada invita a desmán y un incidente de seguridad.

Aumentar la conciencia del desarrollador

Si adecuadamente no estamos en la directorio de la que comenzamos, toda esta asesor es inútil a menos que la entregue a las personas adecuadas. La masa en la hilera del frente necesita orientación y barandas para ayudarlos a trabajar de modo más válido y segura. Si adecuadamente deseamos que hubiera una alternativa tecnológica mágica para ofrecer aquí, la verdad es que construir e implementar IA de modo segura a escalera todavía requiere que los humanos se encuentren en la misma página con los procesos y políticas correctas.

Si está en el flanco de explicación del mundo, le recomendamos que comparta este artículo con su equipo de seguridad y obtenga su opinión sobre cómo construir de forma segura la IA en su estructura. Si es un profesional de seguridad que lee esto, lo invitamos a compartir esto con sus equipos de desarrolladores y DevOps para promover la conversación de que AI está aquí, y debemos estar seguros mientras lo construimos y construimos con ella.

Apoyar la identidad de la máquina equivale a implementaciones de IA más seguras

La subsiguiente período de acogida de IA pertenecerá a organizaciones que tratan las identidades no humanas con el mismo rigor y cuidado que los usuarios humanos. El monitoreo continuo, la trámite del ciclo de vida y la gobernanza de los secretos robustos deben convertirse en un procedimiento eficaz standard. Al construir una cojín segura ahora, las empresas pueden ascender con confianza sus iniciativas de IA y desbloquear la promesa completa de la automatización inteligente, sin ofrendar la seguridad.

spot_img

Artículos relacionados

spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimos artículos