Los investigadores de seguridad cibernética han revelado detalles de un nuevo ataque de reglas de vector de cautiverio de suministro de la puerta trasera que afecta a los editores de código de inteligencia químico (IA) como el copiloto y el cursor de GitHub, lo que hace que inyecten código astuto.
«Esta técnica permite a los piratas informáticos comprometer silenciosamente el código generado por la IA al inyectar instrucciones maliciosas ocultas en archivos de configuración aparentemente inocentes utilizados por Cursor y GitHub Copilot», dijo el cofundador y CTO Ziv Karliner de Pillar Security en un crónica técnico compartido con Hacker News.
«Al explotar los caracteres unicodos ocultos y las técnicas de despreocupación sofisticadas en el maniquí que enfrenta la carga útil de instrucciones, los actores de amenaza pueden manipular la IA para insertar código astuto que pase por detención las revisiones de código típicas».
El vector de ataque es extraordinario por el hecho de que permite que el código astuto se propague en silencio entre los proyectos, lo que plantea un peligro de cautiverio de suministro.

El quid del ataque depende de los archivos de reglas que utilizan los agentes de IA para encauzar su comportamiento, ayudando a los usuarios a aclarar las mejores prácticas de codificación y la edificación de proyectos.
Específicamente, implica integrar indicaciones cuidadosamente elaboradas interiormente de archivos de reglas aparentemente benignos, lo que hace que la utensilio AI genere código que contenga vulnerabilidades de seguridad o puertas traseras. En otras palabras, las reglas envenenadas empujan a la IA para producir un código nefasto.
Esto se puede alcanzar mediante el uso de carpinistas de encantado cero, marcadores de texto bidireccionales y otros caracteres invisibles para ocultar instrucciones maliciosas y explotar la capacidad de la IA para interpretar el jerga natural para suscitar un código pusilánime a través de patrones semánticos que engañan al maniquí en restricciones éticas y de seguridad anulantes.
Luego de la divulgación responsable a fines de febrero y marzo de 2024, tanto Cursor como Gihub han público que los usuarios son responsables de revisar y aceptar sugerencias generadas por las herramientas.
«‘Reglas File Backdoor’ representa un peligro significativo al armarse la IA en sí como un vector de ataque, convirtiendo efectivamente al asistente más confiable del desarrollador en un cómplice involuntario, lo que potencialmente afecta a millones de usuarios finales a través de un software comprometido», dijo Karliner.
«Una vez que se incorpora un archivo de reglas contaminado en un repositorio de tesina, afecta todas las sesiones futuras de reproducción de código por parte de los miembros del equipo. Encima, las instrucciones maliciosas a menudo sobreviven al desvío del tesina, creando un vector para los ataques de la cautiverio de suministro que puede afectar las dependencias posteriores y los usuarios finales».


