DELITOS EN EL ESPACIO DIGITAL

Delincuentes usan la IA para crear audios fake: extorsionan a amigos y familiares

Este tipo de crímenes van aumentando en el país, conforme las tecnologías se desarrollan y sin que haya leyes encargadas de penalizar estas acciones

NACIONAL

·
Los delitos con la Inteligencia Artificial se van incrementando en todo el mundo.Créditos: Freepik.

La Inteligencia Artificial (IA) evoluciona a pasos de gigantes cada día, presentándose como una herramienta creada para facilitar la vida de sus usuarios. Sin embargo, la falta de leyes en torno al uso de estas nuevas tecnologías ha dado cabida a que los criminales la utilicen para cometer delitos que ya existen fuera del mundo digital. 

En este sentido, ha surgido una nueva problemática, en la que los delincuentes utilizan IA para imitar las voces de personas, fingiendo que están en una situación de riesgo, y así extorsionar a sus familiares o seres queridos. Cabe mencionar que en países como México, se trata de una práctica que cada vez se vuelve más popular y los casos van aumentando conforme las tecnologías se desarrollan, sin que haya leyes encargadas de penalizar estas acciones. 

Sigue leyendo:

La desnudaron con IA, la nueva forma de violencia digital que acecha a las mujeres: “Es mi cara, pero no mi cuerpo”

Cae Diego “N”, estudiante acusado de editar fotos de sus compañeras con IA y venderlas

"Sí era su voz, era él": Natalia dio dinero pensando que ayudaría a su novio

Los criminales utilizan la IA para cometer sus delitos en el espacio digital. Foto: Freepik.

"Necesito que deposites el dinero", se oyó decir a un joven. Natalia rápidamente reconoció que se trataba de su pareja, Alexis, quien un día antes había viajado a Morelos en compañía de sus amigos; la mujer escuchó la nota de voz, que recibió por WhatsApp, más de cinco veces, para corroborar que era un mensaje de su novio pidiéndole que realizara una transferencia para que él pudiera solucionar un problema económico en el que supuestamente estaba involucrado. 

Natalia recuerda que el pánico se apoderó de su cuerpo, ya que el número de teléfono -donde recibió el mensaje de audio- no era el de su pareja, sin embargo la voz era idéntica. "Me mandaron el mensaje (de voz) de un número que yo no tenía agregado. Se oía a él pidiéndome que hiciera un depósito que porque había tenido un problema y se había quedado sin nada (de dinero)", reveló la mujer en entrevista con El Heraldo Digital. Asustada por lo que podría estar viviendo Alexis, Natalia realizó una transferencia de tan solo 300 pesos: "no tenía más dinero y le dije 'solo te puedo mandar 300, dile a tus amigos que te presten y les pago aquí' (en Ciudad de México)", añadió. 

Natalia envió dinero a los delincuentes, pensando que era a su pareja. Foto: Freepik.

La joven educadora confesó que sí desconfió del audio, porque fue enviado de un número que no conocía, pero temiendo que su pareja estuviera en problemas realizó el pago. "Sí dudé, pero en el mensaje (de voz) me decía que según había perdido el celular y que le urgía. Por no investigar le hice caso y es que sí era su voz, era él", sentenció Natalia. No obstante, tras realizar el depósito, el contacto de WhatsApp que envió el audio la bloqueó y eliminó los mensajes enviados, ahí ella sospecho que algo no estaba bien. 

Su novio le confirmó que había sido víctima de una extorsión

"Me bloquean, me borran la conversación y me asusté. Empecé a llamar a sus amigos y no contestaban. Ya después de un rato uno me respondió y le preguntó por él y me dice que está bien, que no le robaron nada", narró Natalia a este medio. Añadió que cuando finalmente pudo hablar con su pareja, Alexis, él le confirmó que había sido víctima de una extorsión, puesto que nunca estuvo en peligro y no había perdido su teléfono celular: "me dijo que no era verdad, que estaba bien, que tal vez había sido una estafa. No me importó mucho, solo le di 300 pesos, algo dentro de mi me decía 'no lo hagas, no es verdad' y por suerte no hice la transferencia con los 5 mil pesos que pedían". 

Natalia fue bloqueada después de ser extorsionada. Foto: Freepik.

Al respecto, la ingeniera en Tecnologías de la Información, Nancy Salazar, explicó que cada vez es más común que los criminales se muden al espacio digital y cometan sus delitos utilizando herramientas como la Inteligencia Artificial (IA). La fundadora de Tekis.services aseguró, en entrevista con El Heraldo Digital, que crear audios o imágenes falsas es una práctica que se ha popularizado en redes sociales hasta llegar a los ciber delincuentes, quienes con más frecuencia crean audios, fotografías y hasta videos falsos, con el objetivo de extorsionar a sus víctimas. 

¿Qué son los deepfake y cómo se hacen?

De acuerdo con la experta, este tipo de delitos son relativamente "fáciles" de cometer, ya que en la actualidad en internet hay una gran cantidad de herramientas de IA que facilitan a los usuarios la creación de audios, imágenes o videos falsos. "Parte de la invención y el lanzamiento de este tipo de herramientas es que son súper sencillas de utilizar, su experiencia de usuario es muy sencilla. En el caso de la clonación de voz hay plataformas en las que tu únicamente tienes que recabar audios de la voz que quieres replicar y estos softwares analizan el audio, los patrones de la voz, el tono, el ritmo y con esto genera la clonación. Si sabes subir adjuntar un archivo por correo electrónico, fácilmente puedes usar este tipo de herramientas".

Hacer audios, imágenes o videos falsos es relativamente sencillo. Foto: Freepik.

Para poder realizar la clonación de voces, a los criminales les basta con un video o una fotografía de la persona interesada y una vez que tienen el fragmento de audio, la Inteligencia Artificial se encarga del resto. "Estos audios se recuperan de los videos que tu subes a tus redes sociales como TikTok, Facebook, Instagram y demás. Cualquier cosa que tenga tu voz es una herramienta para de ahí extraer tu audio y con eso hacer estas replicas. También pueden clonar tu imagen en sí, tus movimientos corporales, tus facciones, la forma en la que te mueves para hacer contenido que aparente que eres tu", advirtió Nancy.

Las regulaciones de Inteligencia Artificial avanzan a paso lento

Nancy enfatizó que no es un problema nuevo, sino que estos riesgos nacieron a la par del desarrollo de la IA; la ingeniera recordó que las primeras víctimas fueron políticos y celebridades como el expresidente de Estados Unidos, Barack Obama, cuya imagen y voz fue utilizada para generar y difundir un video falso donde daba un discurso que él jamás mencionó. En este sentido, la especialista lamentó que las regulaciones de IA son muy lentas en comparación del avance de las nuevas tecnologías: "hay que darle velocidad a ese tipo de regulaciones, que se implementen a la de ya. Podrían incluirse leyes que penalicen el uso malintencionado de la Inteligencia Artificial, creación de contenido falso; y hacer regulaciones de transparencia, como ejemplo que se etiqueten o que quede visible que el contenido que tu creaste fue hecho con Inteligencia Artificial", dijo la fundadora de Tekis.services. 

Celebridades y políticos fueron las primeras víctimas. Foto: Freepik.

¿Cómo identificar los deepfake y qué hacer en caso de ser víctima de una extorsión con IA?

Con el objetivo de que menos personas sean víctimas de los ciber delincuentes, Nancy compartió una serie de recomendaciones para las personas que reciban mensajes de voz, imágenes o videos de sus seres queridos en situaciones de alarma. Estos consejos ayudarán a evitar una extorsión o estafa

  • En el caso de imágenes o videos, los ojos de las personas tienen una mirada bastante fija y pocas veces parpadean.
  • Bordes anormales en el rostro, principalmente en las orejas, nariz y ojos.
  • Inconsistencias en la iluminación o sombras extrañas.
  • En audios se recomienda prestar atención a los tonos de la voz, así como a patrones de habla pocos naturales o comunes.
  • Si te piden dinero o te ponen en una situación de alarma se recomienda llamar de manera directa a la persona que supuestamente es la víctima, para revalidar la información.