6.2 C
Madrid
lunes, marzo 2, 2026
spot_img
spot_img

La IA se está envenenando silenciosamente y empujando a los modelos al colapso, pero hay una cura

Siga conectamentado: Agréganos como fuente preferida en Google.


Conclusiones secreto de conectamentado

  • Cuando los LLM de IA «aprenden» de otras IA, el resultado es GIGO.
  • Deberá realizar sus datos ayer de poder creer en sus respuestas de IA.
  • Este enfoque requiere un esfuerzo dedicado en toda su empresa.

Según el analista de tecnología Gartner, los datos de IA se están convirtiendo rápidamente en un problema clásico de entrada y salida de basura (GIGO) para los usuarios. Esto se debe a que los sistemas de inteligencia industrial y los grandes modelos de habla (LLM) de las organizaciones están inundados de contenido no verificado generado por inteligencia industrial en el que no se puede creer.

Colapso del maniquí

Lo sabes mejor como la IA. Si acertadamente es enojoso para usted y para mí, es mortal para la IA porque envenena a los LLM con datos falsos. El resultado es lo que en los círculos de IA se claridad «colapso del maniquí». La empresa de IA Aquant definió esta tendencia: «En términos más simples, cuando la IA se entrena en sus propios resultados, los resultados pueden alejarse aún más de la efectividad».

Por otra parte: 4 nuevos roles liderarán la revolución de la IA agente: esto es lo que necesitan

Sin incautación, creo que esa definición es demasiado amable. No es un caso de «poder»: con datos incorrectos, los resultados de la IA «se alejarán» de la efectividad.

Confianza cero

Este problema ya es evidente. Gartner predijo que el 50% de las organizaciones adoptarán una postura de confianza cero en materia de gobernanza de datos para 2028. Estas empresas no tendrán otra opción, porque los datos generados por IA no verificados están proliferando en los sistemas corporativos y las fuentes públicas.

LEER  Todo se reveló en Google I/O 2025: Gafas inteligentes, Géminis, búsqueda, más

El analista argumentó que las empresas ya no pueden encargarse que los datos son generados por humanos o confiables de forma predeterminada y, en cambio, deben autenticar, realizar y rastrear el categoría de los datos para proteger los resultados comerciales y financieros.

¿Alguna vez intentó autenticar y realizar datos de IA? No es hacedero. Se puede hacer, pero la alfabetización en IA no es una sagacidad popular.

Por otra parte: ¿Tienes habilidades de IA? Puedes vencer un 43% más en tu próximo trabajo, y no solo en trabajos tecnológicos

Como me dijo recientemente la distinguida ingeniera de IBM Phaedra Boinodiris: «No pespunte con tener los datos. Comprender el contexto y las relaciones de los datos es secreto. Por eso es necesario tener un enfoque interdisciplinario sobre quién decide qué datos son correctos. ¿Representan a todas las diferentes comunidades a las que debemos servir? ¿Entendemos las relaciones de cómo se recopilaron estos datos?»

Para empeorar las cosas, GIGO ahora opera a escalera de IA. Esta situación significa que los insumos defectuosos pueden fluir en cascada a través de flujos de trabajo y sistemas de audacia automatizados, produciendo peores resultados. Sí, es cierto, si cree que el sesgo en los resultados de la IA, las alucinaciones y los errores fácticos simples son malos hoy, espere hasta mañana.

Para contrarrestar esta preocupación, Gartner dijo que las empresas deberían adoptar un pensamiento de confianza cero. La confianza cero, originalmente desarrollada para redes, ahora se está aplicando a la gobernanza de datos en respuesta a los riesgos de la IA.

Por otra parte: La implementación de agentes de IA no es el peculiar dispersión de software: 7 lecciones desde las trincheras

LEER  El mejor software CRM de 2025: experto probado

Mecanismos más fuertes

Gartner sugirió que muchas empresas necesitarán mecanismos más sólidos para autenticar las fuentes de datos, realizar la calidad, etiquetar el contenido generado por IA y diligenciar continuamente los metadatos para entender qué están consumiendo efectivamente sus sistemas. El analista propuso los siguientes pasos:

  • Designe un líder de gobernanza de IA: Establecer una función dedicada responsable de la gobernanza de la IA, incluidas las políticas de confianza cero, la gobierno de riesgos de la IA y las operaciones de cumplimiento. Sin incautación, este individuo no puede hacer el trabajo por sí solo. Deben trabajar en estrecha colaboración con los equipos de datos y examen para respaldar que los datos y sistemas preparados para la IA puedan manejar el contenido generado por la IA.
  • Fomentar la colaboración multifuncional: Los equipos multifuncionales deben incluir seguridad, datos, examen y otras partes interesadas relevantes para realizar evaluaciones integrales de riesgos de datos. Agregaría representantes de cualquier área de su empresa que utilice IA. Sólo los usuarios pueden decirle qué es lo que efectivamente necesitan de la IA. El trabajo de este equipo es identificar y topar los riesgos comerciales generados por la IA.
  • Disfrutar las políticas de gobernanza existentes: explotar los marcos de gobernanza de datos y examen actuales y modernizar las políticas relacionadas con la seguridad, la gobierno de metadatos y la ética para topar los riesgos de datos generados por la IA. Tendrás trabajo más que suficiente sin reinventar la rueda.
  • Adoptar prácticas activas de metadatos: habilite alertas en tiempo auténtico cuando los datos estén obsoletos o requieran recertificación. Ya he manido muchos ejemplos en los que los datos antiguos son incorrectos. Por ejemplo, el otro día pregunté a varios chatbots de IA cuál era el programador predeterminado en Linux hoy. La respuesta popular: el Programador Completamente Adaptado (CFS). Sí, CFS todavía está en uso, pero a partir del kernel 6.6 de 2023, se retiró en privanza del programador Early Eligible Posible Deadline First (EEVDF). Lo que quiero afirmar es que cualquier persona que no sea yo, que conoce harto acertadamente Linux, nunca obtendría la respuesta correcta de la IA.
LEER  Esta distribución de Linux es una nueva versión de mi antigua favorita, y es deliciosa

Entonces, ¿la IA seguirá siendo útil en 2028? Claro, pero respaldar que sea útil y no seguir el camino de la primavera cerca de una mala respuesta requerirá el trabajo de mucha multitud buena y tradicional. Sin incautación, este rol será al menos un nuevo empleo generado por la citación revolución de la IA.

spot_img

Artículos relacionados

spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimos artículos