19.9 C
Madrid
miércoles, octubre 22, 2025
spot_img
spot_img

Cómo los jardines amurallados en seguridad pública están exponiendo la crisis de privacidad de datos de Estados Unidos

La frontera en expansión de la IA y los datos que exige

La inteligencia industrial está cambiando rápidamente la forma en que vivimos, trabajamos y gobernamos. En salubridad pública y servicios públicos, las herramientas de IA prometen más eficiencia y una toma de decisiones más rápida. Pero debajo de la superficie de esta transformación hay un desequilibrio creciente: nuestra capacidad de compilar datos ha superado nuestra capacidad de gobernarlo de guisa responsable.

Esto va más allá de un desafío tecnológico para ser una crisis de privacidad. Desde el software de vigilancia predictiva hasta las herramientas de vigilancia y los lectores automatizados de matrículas, los datos sobre las personas están siendo acumulados, analizados y actuados a una velocidad sin precedentes. Y, sin confiscación, la mayoría de los ciudadanos no tienen idea de quién posee sus datos, cómo se usa o si se está salvaguardando.

He gastado esto de cerca. Como ex agente peculiar del FBI Cyber ​​y ahora el CEO de una compañía líder de tecnología de seguridad pública, he trabajado tanto en el gobierno como en el sector privado. Una cosa es clara: si no solucionamos la forma en que manejamos la privacidad de los datos ahora, la IA solo empeorará los problemas existentes. ¿Y uno de los mayores problemas? Jardines amurallados.

¿Qué son los jardines amurallados y por qué son peligrosos en seguridad pública?

Los jardines amurallados son sistemas cerrados donde una empresa controla el llegada, el flujo y el uso de datos. Son comunes en la publicidad y las redes sociales (piense en las plataformas Facebook, Google y Amazon), pero cada vez más, incluso aparecen en seguridad pública.

LEER  Casi el 80% de los conjuntos de datos de capacitación pueden ser un peligro legal para Enterprise AI

Las compañías de seguridad pública desempeñan un papel esencia en la infraestructura de vigilancia moderna, sin confiscación, la naturaleza patentada de algunos de estos sistemas significa que no siempre están diseñados para interactuar fluidamente con las herramientas de otros proveedores.

Estos jardines amurallados pueden ofrecer una funcionalidad potente como las imágenes BodyCam basadas en la cúmulo o los lectores automatizados de matrículas, pero incluso crean un monopolio sobre cómo se almacenan, acceden y analizan los datos. Las agencias de aplicación de la ley a menudo se encuentran encerradas en contratos a holgado plazo con sistemas propietarios que no se hablan entre sí. El resultado? Fragmentación, ideas aisladas y una incapacidad para replicar de guisa efectiva en la comunidad cuando más importa.

El sabido no lo sabe, y eso es un problema

La mayoría de las personas no se dan cuenta de cuánto de su información personal está fluyendo en dirección a estos sistemas. En muchas ciudades, su ubicación, transporte, actividad en serie e incluso estado emocional se pueden inferir y rastrear a través de un cerámica de herramientas basadas en AI. Estas herramientas se pueden comercializar como mejoras de lucha contra el crimen, pero en marcha de transparencia y regulación, se pueden usar fácilmente.

Y no es solo que los datos existan, sino que existe en ecosistemas amurallados que están controlados por empresas privadas con una supervisión mínima. Por ejemplo, herramientas como lectores de matrículas ahora se encuentran en miles de comunidades en los Estados Unidos, recopilando datos y alimentándolos en su red patentada. Los departamentos de policía a menudo ni siquiera poseen el hardware, lo alquilan, lo que significa que la tubería de datos, el investigación y las alertas son dictados por un proveedor y no por consenso sabido.

LEER  Por qué la extracción de documentos de agente está reemplazando el OCR para la automatización de documentos más inteligentes

Por qué esto debería encaramar las banderas rojas

AI necesita datos para funcionar. Pero cuando los datos están bloqueados adentro de los jardines amurallados, no se puede referencias transversales, validadas o desafiadas. Esto significa decisiones sobre quién se detiene, dónde van los bienes o quién es impresionado como una amenaza se están tomando en función de información parcial, a veces inexacta.

El peligro? Palas decisiones, posibles violaciones de las libertades civiles y una brecha creciente entre los departamentos de policía y las comunidades a las que sirven. La transparencia se erosiona. La confianza se evapora. Y la innovación se sofoca, porque las nuevas herramientas no pueden ingresar al mercado a menos que se ajusten a las limitaciones de estos sistemas amurallados.

En un marco en el que un sistema de agradecimiento de matrícula marca incorrectamente un transporte robado basado en datos anticuados o compartidos, sin la capacidad de comprobar esa información en plataformas o auditar cómo se tomó esa valentía, los oficiales pueden interpretar en falsos positivos. Ya hemos gastado incidentes en los que la tecnología defectuosa condujo a osadía injustos o confrontaciones intensificadas. Estos resultados no son hipotéticos, están sucediendo en comunidades de todo el país.

Lo que en realidad necesita la policía

En oficio de encerrar los datos, necesitamos ecosistemas abiertos que admitan el intercambio de datos seguro, estandarizado e interoperable. Eso no significa ofrecer la privacidad. Por el contrario, es la única forma de respaldar que se apliquen las protecciones de privacidad.

Algunas plataformas están trabajando en dirección a esto. Por ejemplo, FirstTWO ofrece herramientas de conciencia situacionales en tiempo verdadero que enfatizan la integración responsable de los datos disponibles públicamente. Otros, como Forcemetrics, se centran en combinar conjuntos de datos dispares como llamadas al 911, registros de salubridad del comportamiento e historial de incidentes anteriores para dar a los oficiales un mejor contexto en el campo. Pero de guisa crucial, estos sistemas están construidos con evacuación de seguridad pública y respeto de la comunidad como una prioridad, no una ocurrencia tardía.

LEER  ¿Por qué los chatbots de IA son a menudo sycofánticos?

Construyendo una infraestructura de privacidad primero

Un enfoque de privacidad primero significa más que redactar información confidencial. Significa demarcar el llegada a los datos a menos que haya una obligación clara y reglamentario. Significa documentar cómo se toman las decisiones y habilitar auditorías de terceros. Significa asociarse con partes interesadas de la comunidad y grupos de derechos civiles para dar forma a la política y la implementación. Estos pasos dan como resultado una seguridad fortalecida y una legalidad común.

A pesar de los avances tecnológicos, todavía estamos operando en un hueco reglamentario. Estados Unidos carece de una constitución integral de privacidad de datos federales, dejando a las agencias y proveedores para compensar las reglas a medida que avanzan. Europa tiene GDPR, que ofrece una hoja de ruta para el uso de datos basado en el consentimiento y la responsabilidad. Estados Unidos, por el contrario, tiene un cerámica fragmentado de políticas a nivel estatal que no abordan adecuadamente las complejidades de la IA en los sistemas públicos.

Que necesita cambiar. Necesitamos estándares claros y exigibles sobre cómo las organizaciones de aplicación de la ley y seguridad pública recopilan, almacenan y comparten datos. Y necesitamos incluir a las partes interesadas de la comunidad en la conversación. El consentimiento, la transparencia y la rendición de cuentas deben hornear en todos los niveles del sistema, desde la adquisición hasta la implementación y el uso diario.

El resultado final: sin interoperabilidad, la privacidad sufre

En seguridad pública, las vidas están en grupo. La idea de que un proveedor podría controlar el llegada a datos críticos de la cometido y restringir cómo y cuándo se usa no es solo ineficiente. No es ético.

Necesitamos ir más allá del mito de que la innovación y la privacidad están en desacuerdo. La IA responsable significa sistemas más equitativos, efectivos y responsables. Significa repeler el separación del proveedor, priorizar la interoperabilidad y exigir estándares abiertos. Porque en una democracia, ninguna empresa debe controlar los datos que decide quién recibe ayuda, quién se detiene o quién se queda detrás.

spot_img

Artículos relacionados

spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimos artículos