El panorama de la ciberseguridad ha sido reestructurado drásticamente por el comienzo de la IA generativa. Los atacantes ahora aprovechan los modelos de idiomas grandes (LLM) para hacerse acaecer por personas de confianza y automatizar estas tácticas de ingeniería social a escalera.
Revisemos el estado de estos ataques crecientes, lo que los está alimentando y cómo precaver, no detectarlos.
La persona más poderosa de la emplazamiento podría no ser positivo
Informes recientes de inteligencia de amenazas destacan la creciente sofisticación y prevalencia de los ataques impulsados por la IA:
En esta nueva era, la confianza no se puede admitir o simplemente detectarse. Debe probarse determinista y en tiempo positivo.
Por qué el problema está creciendo
Tres tendencias están convergiendo para hacer de la suplantación de IA el próximo gran vector de amenaza:
- AI hace que el simulación sea asequible y escalable: Con herramientas de voz y video de código extenso, los actores de amenaza pueden hacerse acaecer por cualquier persona con solo unos minutos de material de narración.
- La colaboración potencial expone brechas de confianza: Herramientas como Teleobjetivo, los equipos y Slack asumen que la persona detrás de una pantalla es quién dice ser. Los atacantes explotan esa suposición.
- Las defensas generalmente dependen de la probabilidad, no a prueba: Herramientas de detección de DeepFake utilizan marcadores y investigación faciales para adivinar Si determinado es positivo. Eso no es lo suficientemente bueno en un entorno de stop peligro.
Y aunque las herramientas de punto final o la capacitación de los usuarios pueden ayudar, no están creados para objetar una pregunta crítica en tiempo positivo: ¿Puedo encargar en esta persona con la que estoy hablando?
Las tecnologías de detección de IA no son suficientes
Las defensas tradicionales se centran en la detección, como la capacitación de usuarios para detectar un comportamiento sospechoso o usar la IA para analizar si determinado es desleal. Pero los defectos profundos se están volviendo demasiado buenos, demasiado rápido. No puedes disputar contra el simulación generado por la IA con herramientas basadas en la probabilidad.
La prevención positivo requiere una cojín diferente, una basada en la confianza comprobable, no en la suposición. Eso significa:
- Comprobación de identidad: Solo los usuarios verificados y autorizados deberían poder unir reuniones o chats confidenciales basados en credenciales criptográficas, no contraseñas o códigos.
- Verificaciones de integridad del dispositivo: Si el dispositivo de un afortunado está infectado, con jailbreak o no confunde, se convierte en un posible punto de entrada para los atacantes, incluso si se verifica su identidad. Bloquee estos dispositivos desde las reuniones hasta que sean remediados.
- Indicadores de confianza visibles: Otros participantes necesitan ver Prueba de que cada persona en la reunión es quién dice que son y está en un dispositivo seguro. Esto elimina la carga del litigio de los usuarios finales.
La prevención significa crear condiciones donde la suplantación no es solo difícil, es impracticable. Así es como vallado los ataques de AI Deepfake antaño de unirse a conversaciones de stop peligro como reuniones de la asociación, transacciones financieras o colaboraciones de proveedores.
| Enfoque basado en la detección | Enfoque de prevención |
|---|---|
| Anomalías de bandera luego de que ocurran | Encerrar a los usuarios no autorizados para que se unan |
| Creer en la heurística y las conjeturas | Use prueba de identidad criptográfica |
| Requerir litigio del afortunado | Proporcionar indicadores de confianza verificados y visibles |
Elimine las amenazas de Deepfake de sus llamadas
RealityCheck by Beyond Identity fue construido para cerrar esta brecha de confianza en el interior de las herramientas de colaboración. Le da a cada participante una insignia de identidad visible y verificada respaldada por la autenticación del dispositivo criptográfico y las controles de peligro continuo.
Actualmente acondicionado para los equipos de Teleobjetivo y Microsoft (Video y chat), RealityCheck:
- Confirma que la identidad de cada participante es positivo y autorizada
- Valida el cumplimiento del dispositivo en tiempo positivo, incluso en dispositivos no administrados
- Muestra una insignia visual para mostrar a otros que han sido verificados
Si desea ver cómo funciona, más allá de la identidad es meter un seminario web donde puede ver el producto en influencia. ¡Regístrese aquí!


