6.3 C
Madrid
jueves, enero 15, 2026
spot_img
spot_img

Los atacantes utilizan ChatGPT para engañar a los usuarios de Mac para que instalen MacStealer

Los investigadores de seguridad han descubierto que los atacantes están utilizando ChatGPT para engañar a los usuarios de Mac para que peguen una cadeneta de comando en la Terminal que instala malware. En concreto, instala MacStealer, que permite al atacante obtener contraseñas, archivos y datos de tarjetas de crédito de iCloud.

El ataque se dirigió a personas que buscaban en Google instrucciones sobre cómo liberar espacio en el disco de una Mac…

Engadget Sam Chapman dice que ha estado siguiendo la creciente tendencia de utilizar la IA para encontrar nuevas formas de implementar estafas de la vieja escuela cuando descubrió el referencia de la empresa de ciberseguridad Huntress.

Aparentemente, los piratas informáticos están utilizando indicaciones de IA para introducir comandos peligrosos en los resultados de búsqueda de Google. Cuando los ejecutan usuarios desconocidos, estos comandos solicitan a las computadoras que brinden a los piratas informáticos el camino que necesitan para instalar malware.

Los atacantes mantuvieron una conversación con ChatGPT en la que introdujeron el comando Terminal, hicieron sabido el chat y luego pagaron a Google para promocionar el enlace. Huntress dijo que esto lo hizo aparecer en la parte superior de los resultados de búsqueda de Google para liberar espacio en disco en una Mac.

La víctima había buscado «Borrar espacio en disco en macOS». Google mostró dos resultados en extremo clasificados en la parte superior de la página, uno que dirige al legatario final a una conversación ChatGPT y el otro a una conversación Grok. Los dos estaban alojados en sus respectivas plataformas legítimas. Ambas conversaciones ofrecieron una itinerario cortés y paso a paso para la alternativa de problemas. Los dos incluían instrucciones y comandos de Terminal macOS presentados como instrucciones de “fregado segura del sistema”.

El legatario hizo clic en el enlace ChatGPT, leyó la conversación y ejecutó el comando proporcionado. Creían que estaban siguiendo los consejos de un asistente de inteligencia sintético confiable, entregados a través de una plataforma legítima, que aparece en un motor de búsqueda que usan todos los días. En cambio, acababan de ejecutar un comando que descargaba una transformación del estafador AMOS que recopilaba silenciosamente su contraseña, la escalaba a la raíz y desplegaba malware persistente.

Lo mismo se hizo con el chatbot Grok de X. Los términos de búsqueda dirigidos fueron:

  • Liberar almacenamiento en Mac
  • Sisar espacio en disco en macOS
  • Cómo borrar datos en iMac
  • Borrar datos del sistema en iMac

Es un enfoque preocupantemente inteligente porque evita todas las protecciones integradas de macOS, lo que permite al legatario instalar el malware sin advertencias. Explota el hecho de que la clan confía en las marcas conocidas tanto de Google como de ChatGPT.

La opinión de 9to5Mac

Pegar comandos en la Terminal sin entenderlos es poco peligroso en el mejor de los casos. Si lo hace, debe comprobar de dejarlo en Dios absolutamente en la fuente. Los resultados patrocinados en Google no son falta fiables.

Sería extremadamente comprensible para un legatario no técnico caer en esto, por lo que es posible que desees alertar a tus familiares y amigos.

Accesorios destacados

Foto de Ilya Pavlov en Unsplash

LEER  Ejecutar juegos de Windows en Mac se volvió más caro
spot_img

Artículos relacionados

spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimos artículos