El Pentágono desarrolla agentes de voz con IA para interrogatorios

Defensa NewsDefensa NewsIndustriahace 11 meses684 Visitas

El Pentágono ha confirmado que agentes de voz basados en inteligencia artificial ya están siendo utilizados para guiar interrogatorios en todo el mundo, una tendencia que podría transformar radicalmente los métodos de evaluación de seguridad. Según informaron funcionarios estadounidenses a Defense News, estos avances están influyendo directamente en el diseño y las pruebas de interrogadores virtuales destinados a evaluar a personas que buscan acceder a material clasificado.

Mientras tanto, crecen las preocupaciones por la falta de regulaciones claras que impidan el uso abusivo de estas tecnologías, en lo que algunos expertos ya denominan como tortura cibernética sin marcas.

Preocupaciones sobre los riesgos psicológicos y la falta de control ético

La abogada de privacidad Amanda McAllister Novak, miembro de World Without Genocide, advierte que estas prácticas pueden tener consecuencias devastadoras. Recordó casos recientes de adolescentes que, tras mantener conversaciones con chatbots autoaprendientes, sufrieron angustia mental e incluso se suicidaron.

“Tenemos que preguntarnos si realmente vale la pena implementar sistemas de interrogatorio de IA en contextos militares” —afirmó Novak—, alertando sobre la posibilidad de que esta tecnología sea utilizada para manipular o dañar psicológicamente a los individuos.

El Pentágono defiende su uso para eliminar sesgos humanos

Desde la Agencia de Contrainteligencia y Seguridad de Defensa de EE.UU. (DCSA), se justifica la utilización de estos sistemas alegando que permiten reducir los sesgos de género y culturales presentes en interrogadores humanos.

“Debemos entender las capacidades de estos sistemas, ya que ya se utilizan en todo el mundo, incluso por las fuerzas del orden en EE.UU.”, declaró Royal Reff, portavoz de la DCSA.

Sin embargo, Novak advirtió que, aunque se implementen protocolos de supervisión, siempre existe el riesgo de que estos sistemas sean hackeados o utilizados por actores malintencionados para infligir daño psicológico tanto a personal militar como a civiles.

Una industria en auge sin regulaciones claras

Mientras las inversiones en centros de datos y tecnologías de IA superan los 500.000 millones de dólares, la carrera por liderar el sector de la inteligencia artificial sigue acelerándose. Se estima que el mercado de IA conversacional alcanzará los 50.000 millones de dólares en 2030, mientras que la industria de generadores de voz crecerá hasta los 40.000 millones de dólares en 2032.

No obstante, estas cifras contrastan con la ausencia de marcos legales que regulen los impactos psicológicos de estas tecnologías, especialmente en ámbitos tan sensibles como la seguridad nacional.

Una amenaza sin precedentes para la integridad emocional de las personas

Expertos como Renée Cummings, profesora de ciencias de datos y psicóloga criminal, advierten que los estudios actuales no contemplan todas las variables psicológicas implicadas en este tipo de interacciones.

“No puedes exponer a alguien a torturas extremas por un avatar o un bot para medir el resultado” —señaló Cummings—, subrayando la necesidad urgente de comprender los efectos reales de estos algoritmos en la mente humana.

El riesgo, según los especialistas, no radica solo en los daños directos, sino en la posibilidad de que estos sistemas amplifiquen los sesgos, la hostilidad y las prácticas abusivas presentes en los datos con los que son entrenados.

¿Estamos preparados para regular la tortura psicológica digital?

Aunque la Convención de la ONU contra la Tortura reconoce desde 2020 el concepto de tortura psicológica, aún no existe un marco jurídico internacional que contemple el uso de la inteligencia artificial en estos contextos.

“Los entornos cibernéticos ofrecen anonimato casi garantizado y una impunidad total para los infractores”, advirtió Nils Melzer, ex relator especial de la ONU sobre la tortura.

Sin normas claras y vinculantes, los desarrolladores de IA militar podrían argumentar que no existe intención de infligir daño, eximiéndose así de toda responsabilidad legal.

La pregunta que queda en el aire es clara: ¿Estamos a tiempo de establecer límites éticos y legales antes de que sea demasiado tarde?

Fuente: https://www.defensenews.com/industry/techwatch/2025/05/06/how-ai-voicebots-threaten-the-psyche-of-us-service-members-and-spies/

Deja una respuesta

Publicación anterior

Publicación siguiente

Loading Next Post...
SÍGUENOS
Barra Lateral Buscar Tendencias
Más leidas
Cargando

Iniciando sesión 3 segundos...

Registrándose 3 segundos...