
El Pentágono ha confirmado que agentes de voz basados en inteligencia artificial ya están siendo utilizados para guiar interrogatorios en todo el mundo, una tendencia que podría transformar radicalmente los métodos de evaluación de seguridad. Según informaron funcionarios estadounidenses a Defense News, estos avances están influyendo directamente en el diseño y las pruebas de interrogadores virtuales destinados a evaluar a personas que buscan acceder a material clasificado.
Mientras tanto, crecen las preocupaciones por la falta de regulaciones claras que impidan el uso abusivo de estas tecnologías, en lo que algunos expertos ya denominan como tortura cibernética sin marcas.
La abogada de privacidad Amanda McAllister Novak, miembro de World Without Genocide, advierte que estas prácticas pueden tener consecuencias devastadoras. Recordó casos recientes de adolescentes que, tras mantener conversaciones con chatbots autoaprendientes, sufrieron angustia mental e incluso se suicidaron.
“Tenemos que preguntarnos si realmente vale la pena implementar sistemas de interrogatorio de IA en contextos militares” —afirmó Novak—, alertando sobre la posibilidad de que esta tecnología sea utilizada para manipular o dañar psicológicamente a los individuos.
Desde la Agencia de Contrainteligencia y Seguridad de Defensa de EE.UU. (DCSA), se justifica la utilización de estos sistemas alegando que permiten reducir los sesgos de género y culturales presentes en interrogadores humanos.
“Debemos entender las capacidades de estos sistemas, ya que ya se utilizan en todo el mundo, incluso por las fuerzas del orden en EE.UU.”, declaró Royal Reff, portavoz de la DCSA.
Sin embargo, Novak advirtió que, aunque se implementen protocolos de supervisión, siempre existe el riesgo de que estos sistemas sean hackeados o utilizados por actores malintencionados para infligir daño psicológico tanto a personal militar como a civiles.
Mientras las inversiones en centros de datos y tecnologías de IA superan los 500.000 millones de dólares, la carrera por liderar el sector de la inteligencia artificial sigue acelerándose. Se estima que el mercado de IA conversacional alcanzará los 50.000 millones de dólares en 2030, mientras que la industria de generadores de voz crecerá hasta los 40.000 millones de dólares en 2032.
No obstante, estas cifras contrastan con la ausencia de marcos legales que regulen los impactos psicológicos de estas tecnologías, especialmente en ámbitos tan sensibles como la seguridad nacional.
Expertos como Renée Cummings, profesora de ciencias de datos y psicóloga criminal, advierten que los estudios actuales no contemplan todas las variables psicológicas implicadas en este tipo de interacciones.
“No puedes exponer a alguien a torturas extremas por un avatar o un bot para medir el resultado” —señaló Cummings—, subrayando la necesidad urgente de comprender los efectos reales de estos algoritmos en la mente humana.
El riesgo, según los especialistas, no radica solo en los daños directos, sino en la posibilidad de que estos sistemas amplifiquen los sesgos, la hostilidad y las prácticas abusivas presentes en los datos con los que son entrenados.
Aunque la Convención de la ONU contra la Tortura reconoce desde 2020 el concepto de tortura psicológica, aún no existe un marco jurídico internacional que contemple el uso de la inteligencia artificial en estos contextos.
“Los entornos cibernéticos ofrecen anonimato casi garantizado y una impunidad total para los infractores”, advirtió Nils Melzer, ex relator especial de la ONU sobre la tortura.
Sin normas claras y vinculantes, los desarrolladores de IA militar podrían argumentar que no existe intención de infligir daño, eximiéndose así de toda responsabilidad legal.
La pregunta que queda en el aire es clara: ¿Estamos a tiempo de establecer límites éticos y legales antes de que sea demasiado tarde?






