COLUMNA INVITADA

Navegando en la Era de los Deepfakes: Ética y Seguridad en la Inteligencia Artificial

La capacidad de crear contenido y videos falsos tiene implicaciones relevantes en torno a la privacidad, la reputación y la verdad, en una época totalmente digital

OPINIÓN

·
Álvaro Vértiz / Columna invitada / Opinión El Heraldo de MéxicoCréditos: Foto: Especial

Hace unos días se reactivó el debate sobre la importancia de regular el uso de la Inteligencia Artificial (IA) derivado de los deepfakes relacionados con la cantante Taylor Swift, así como otros videos falsos de personajes relevantes mexicanos.

La IA puede tener incidencias relevantes en torno a la manipulación política y social, actividades fraudulentas, entretenimiento. En este artículo abordaré algunos temas relacionados a la IA y en particular al deepfake.

Para los que aún no conocen el término, deepfake es una técnica de síntesis de imagen o video impulsada por IA especialmente mediante el uso de deep learning. Este término, que combina "deep learning" (aprendizaje profundo) y "fake" (falso), describe cómo se pueden crear o modificar imágenes y videos para hacer parecer que una persona está diciendo o haciendo algo que nunca dijo o hizo en realidad.

Pero más allá de lo cubierto por los medios, ¿por qué es relevante atender el tema?

La capacidad de crear contenido y videos falsos tiene implicaciones relevantes en torno a la privacidad, la reputación, y la verdad particularmente en una época totalmente digital.

Por ello, hay que destacar los desafíos éticos y legales que tiene la IA en nuestra época, con el fin de evitar la desinformación, educando al público sobre la existencia y los riesgos que tiene.

También estos incidentes relacionados con información falsa subrayan la relevancia que tienen los desarrolladores y empresas de tecnología en el desarrollo de herramientas responsables y seguras.

Por lo anterior, se deben de desarrollar normas éticas y claras para el uso de las tecnologías, incluyendo fomentar la transparencia en la creación y distribución de contenidos producidos por IA. Esto, permitirá se lleve a cabo una innovación que respete los derechos humanos, los valores sociales, las normas legales existentes y futuras y lo más importante es que se alinee el desarrollo con el bienestar social.

Actualmente existen y se encuentran en desarrollo nuevas tecnologías que permiten y permitirán de mejor manera identificar este tipo de conductas, como ejemplo: sistemas de “deep learning” que detecten algoritmos, tecnología blockchain que verifique el origen del contenido, marcas de agua digitales, reconocimiento facial y análisis biométricos, entre otros.

Adobe, Google, y el “AI and Media Integrity Steering Committee” son ejemplos de entidades que se encuentran trabajando en atender y desarrollar tecnologías de protección.

Por otro lado está WorldCoin, empresa cofundada por Sam Altman, y cuyo objetivo principal es proporcionar a los usuarios una identidad digital verificada, junto con un token de criptomoneda denominado Worldcoin (WLD) y una aplicación de cartera de criptomonedas, ofreciendo un tipo de pasaporte digital basado en lo que denomina "prueba de personalidad", verificando la identidad de un usuario mediante el escaneo de su iris para crear códigos de identificación personales y seguros, almacenados en una blockchain descentralizada.

Hoy derivado de los avances tecnológicos y en particular de la IA, es de suma importancia estar preparados para hacer frente a potenciales amenazas y por ello entender y adoptar elementos que puedan mitigar los riesgos.

El auge de los deepfakes y la continua evolución de la IA representan un desafío significativo y multifacético.

La capacidad de crear contenido falso altamente convincente no solo pone en riesgo la privacidad y la reputación individual o de una empresa, sino que también plantea serias amenazas a la integridad de la información, la verdad objetiva y la confianza en los medios digitales.

La respuesta no puede ser unilateral, sino que debe involucrar una combinación de regulación ética, avances tecnológicos en detección y verificación, y una mayor conciencia pública. A medida que avanzamos en esta era digital, se vuelve cada vez más crucial que los desarrolladores, reguladores y usuarios colaboren de manera coordinada para fomentar un entorno donde la innovación tecnológica se alinee con el bienestar social y el respeto por los derechos humanos.

Solo a través de un enfoque holístico y multidisciplinario podremos asegurar un futuro donde la tecnología sirva para potenciar la verdad y la confianza.

Por Álvaro Vértiz

Socio en Dentons Global Advisors

EEZ