🟡 Reino Unido y Alemania evalúan desplegar tropas de la OTAN en Groenlandia

El cada vez más frecuente uso de voces familiares clonadas con inteligencia artificial para realizar estafas telefónicas (y cómo protegerse)

Viernes 14 de Julio 2023

La inteligencia artificial (IA) se está utilizando para realizar llamadas en las que se imitan las voces de personas conocidas para estafar al destinatario.
Estas llamadas utilizan lo que se conoce como IA generativa, es decir, sistemas capaces de crear texto, imágenes o cualquier otro soporte, como vídeo, a partir de las instrucciones de un usuario.
 
Los deepfakes (falsificaciones profundas) han ganado notoriedad en los últimos años con una serie de incidentes de gran repercusión, tales como el uso de la imagen de la actriz británica Emma Watson en una serie de anuncios sugerentes que aparecieron en Facebook e Instagram.
 
También está el video de 2022 ampliamente compartido y desmentido, en el que el presidente ucraniano Volodymyr Zelensky parecía decirles a los ucranianos que "depusieran las armas".
 
Ahora, la tecnología para crear un audio falso, una copia realista de la voz de una persona, se está volviendo cada vez más común.
 
Dando armas al enemigo
Para crear una copia realista de la voz de alguien se necesitan datos para entrenar al algoritmo. Esto significa tener muchas grabaciones de audio de la voz de la persona.
 
Cuantos más ejemplos de la voz de la persona se puedan introducir en los algoritmos, mejor y más convincente será la copia final.
 
Muchos de nosotros ya compartimos detalles de nuestras vidas cotidianas en internet. Esto significa que los datos de audio necesarios para crear una copia realista de una voz podrían estar fácilmente disponibles en las redes sociales.
 
Pero, ¿qué ocurre una vez que la copia está ahí fuera? ¿Qué es lo peor que puede ocurrir? Un algoritmo de deepfake podría permitir a cualquiera que posea los datos hacer que "tú" digas lo que quieran.
 
En la práctica, esto puede ser tan sencillo como escribir un texto y hacer que la computador lo diga en voz alta como si fueras tu voz.
 
Los principales retos
Esta posibilidad puede aumentar el riesgo de aumentar la prevalencia de la desinformación. Puede utilizarse para tratar de influir en la opinión pública internacional o nacional, como se ha visto con los "videos" de Zelensky.
 
Pero la ubicuidad y disponibilidad de estas tecnologías también plantea retos importantes a nivel local, sobre todo en la creciente tendencia de las "llamadas con IA para estafar".
 
Muchas personas habrán recibido una llamada de estafa o phishing que nos dice, por ejemplo, que nuestro computadora se ha visto comprometida y que debemos iniciar sesión inmediatamente, lo que podría dar al autor de la llamada acceso a nuestros datos.
 
A menudo es muy fácil detectar los engaños, especialmente cuando la persona que hace la llamada formula preguntas y pide información que alguien de una organización legítima no haría.
 
Sin embargo, ahora imagine que la voz al otro lado del teléfono no es un extraño, sino que suena exactamente como un amigo o un ser querido. Esto inyecta un nivel completamente nuevo de complejidad y de pánico para el desafortunado destinatario.
 
Una historia reciente reportada por la cadena CNN destaca un incidente en el que una madre recibió una llamada de un número desconocido. Cuando contestó el teléfono, era su hija. La hija supuestamente había sido secuestrada y estaba llamando a su madre para pedirle un rescate.
 
De hecho, la niña estaba sana y salva. Los estafadores habían hecho una falsificación de su voz.
 
Este no es un incidente aislado, y la estafa se ha dado con con variaciones, que incluyen un supuesto accidente automovilístico, en el que la presunta víctima llama a su familia para pedir dinero para superar el accidente.
 
Viejo truco con nueva tecnología
No se trata de una estafa nueva en sí misma. El término "estafa del secuestro virtual" existe desde hace varios años. Y puede adoptar muchas formas, pero una de las más comunes consiste en engañar a las víctimas para que paguen un rescate para liberar a un ser querido que creen amenazado.
 
El estafador intenta establecer una demanda incondicional y lograr que la víctima pague el rescate rápido antes de que descubra que fue engañada.
 
Sin embargo, el surgimiento de tecnologías de IA poderosas y disponibles ha subido la apuesta significativamente y ha hecho que las cosas sean más personales.
 
Una cosa es colgar a una llamada anónima, pero se necesita mucha confianza para colgarle a alguien que suena como un hijo o pareja.
 
Existe un software que se puede usar para identificar las falsificaciones y que crea una representación visual del audio llamada espectrograma. Cuando está escuchando la llamada, puede parecer imposible distinguirla de la persona real, pero las voces se pueden diferenciar cuando los espectrogramas se analizan uno al lado del otro.
 
Al menos un grupo ha ofrecido un software de detección que se puede descargar, aunque es posible que dichas soluciones aún requieran algunos conocimientos técnicos para su uso.
 
La mayoría de las personas no podrán generar espectrogramas, entonces, ¿qué se puede hacer cuando no se está seguro de que lo que estás escuchando es real? Al igual que con cualquier otro medio de comunicación, hay que ser escéptico.
 
Si recibes una llamada inesperada de un ser querido pidiéndote dinero o haciéndote solicitudes que parecen fuera de lugar, devuélvele la llamada o envíale un mensaje de texto para confirmar que realmente estás hablando con él.
 
A medida que se expanden las capacidades de la IA, las líneas entre la realidad y la ficción se difuminan más. Y no es probable que podamos frenar esa tecnología. Esto significa que la gente tendrá que volverse más cautelosa.
 
*Oliver Buckley es profesor asociado de Ciberseguridad de la Universidad de East Anglia (Reino Unido) y es egresado en Computación y Ciencias de la Computación de las universidades de Liverpool y de Galés.
Con información de BBC News Mundo

NOTA22.COM

Ganancias: cuánto retendrán en enero y cómo quedarían las nuevas escalas a partir de febrero

ARCA definirá los nuevos montos que rigen este mes, con actualizaciones de inflación. Cuál será el salario bruto exacto a partir del cual empiezan los descuentos y se aplica el impuesto.

Defensor de confianza

La inviolabilidad del derecho de defensa: Un pilar del Estado Social de Derecho

Defensor de confianza y "fungibilidad": cuando el proceso deja de ser un juicio

La "infungibilidad" del defensor de elección, también denominado defensor de confianza, no es una categoría retórica ni una licencia doctrinaria. Es una garantía constitucional operativa, cuyo desconocimiento revela con nitidez cuándo el proceso penal empieza a deslizarse desde el juicio hacia la administración del conflicto.

Santa Fe se enciende!
Suscribite!
Y recibí las noticias más importantes!
Enero 2026

LO MÁS VISTO
Defensor de confianza
La inviolabilidad del derecho de defensa: Un pilar del Estado Social de Derecho
La "infungibilidad" del defensor de elección, también denominado defensor de confianza, no es una categoría retórica ni una licencia doctrinaria. Es una garantía constitucional operativa, cuyo desconocimiento revela con nitidez cuándo el proceso penal empieza a deslizarse desde el juicio hacia la administración del conflicto.
El personal de casas particulares tendrá un aumento en los haberes. Además del ajuste salarial, se estableció un bono no remunerativo cuyo monto varía según la carga horaria semanal
La incursión estadounidense, preparada durante meses, combinó inteligencia encubierta, ataques a defensas aéreas y una extracción nocturna que elevó con el correr de las horas el número de víctimas fatales

arrow_upward