La inteligencia artificial ahora también nos está engañando con voces.

Actualidad

Hace algunos meses, durante una presentación musical, el DJ David Guetta sorprendió a la audiencia al colaborar de manera inesperada con la voz de Eminem. También, como mencionó el artista francés, «Em-AI-nem». No importaba si el rapero estaba físicamente presente o no; lo crucial era que su voz cantara con su estilo característico, y la gente bailó con mayor entusiasmo debido a la emoción. La jugada resultó perfecta, pero había un truco: la voz de Eminem no era real, era un «deepfake» generado por una inteligencia artificial (IA).

Los «deepfakes» de video o imagen han sido un problema desde hace tiempo debido a su capacidad de difundir noticias falsas y engañar a medios, autoridades y celebridades. Sin embargo, existen otro tipo de «deepfakes» que están pasando desapercibidos: los «deepfakes» de audio.

Estas falsificaciones de audio son creadas utilizando modelos de aprendizaje automático y pueden imitar la voz de una persona real o incluso generar voces únicas. Las herramientas para crear imitaciones de voz han mejorado rápidamente, al igual que los generadores de texto como ChatGPT, lo que genera preocupaciones sobre su posible uso malicioso. Por ejemplo, ya se ha utilizado para engañar a banqueros y lograr que autoricen transferencias de dinero fraudulentas. En 2020, un ciberdelincuente estafó 35 millones de dólares al director de un banco de Emiratos Árabes Unidos al hacerse pasar por un cliente durante una llamada telefónica mediante un «deepfake».

La Universidad College de Londres realizó un estudio para evaluar la capacidad de las personas comunes para detectar «deepfakes» de voz. Los resultados indicaron que los participantes solo pudieron identificar imitaciones profundas de voz el 73% de las veces. Además, algunos participantes recibieron ejemplos de imitaciones de voz para entrenar su capacidad de detección, pero esto no mejoró su tasa de acierto. Los expertos en ciberseguridad coinciden en que será cada vez más difícil discernir entre la realidad y la falsificación.

Frente a estos desafíos, los investigadores sugieren que es más realista centrarse en mejorar los detectores automáticos en lugar de entrenar a las personas para detectar falsificaciones de voz. En cuanto a la lucha contra los «deepfakes», algunos creen que enfrentar IA contra IA es como un juego del gato y el ratón, y se necesita invertir más en mejorar los sistemas de detección.

Aunque el peligro actual se dirige principalmente a figuras públicas, los expertos advierten que las personas en general también deben ser cautelosas y conscientes de la existencia de estas falsificaciones auditivas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *