Una grabación del vicepresidente estadounidense JD Vance comenta que Musk se está “transformando en un gran líder estadounidense” muestra que los sonidos de IA se están volviendo cada vez más difíciles de detectar.

El fin de semana pasado, un archivo de audio se volvió viral en las redes sociales, atrayendo a millones de usuarios interesados. En él, el vicepresidente JD Vance “dijo” Elon Musk estaba “haciéndose pasar por un gran líder” y empeorar al gobierno.
De acuerdo a404media, solo en Tiktok, la grabación se jugó más de dos millones de veces con 8,000 comentarios, pero no fue etiquetada por AI. Del mismo modo, en plataformas como YouTube y X, el número de vistas alcanzó cientos de miles.
A finales del 23 de marzo, William Martin, director de comunicaciones del Sr. Vance, habló en la red social X: “La grabación es 100% falsa, definitivamente no las palabras del vicepresidente”.
Existen algunas herramientas de detección de audio con IA, pero la IA está mejorando cada vez más, lo que dificulta la identificación. Reality Defender, una compañía que hace software para detectar información errónea generada por IA, también califica los archivos de audio como “probablemente falsos” en lugar de decir que son falsos.
“Alimentamos el clip de audio a través de múltiples modelos de aprendizaje profundo y concluimos que probablemente era falso”, dijo un portavoz de la Realidad Defensor. “El ruido y los ecos se agregaron de una manera sofisticada para enmascarar la calidad del audio producido por el defake profundo, lo que dificulta la detección”.
Tiktok, YouTube y X aún no han comentado.
De acuerdo a404media, el audio es “completamente creíble” porque la voz suena exactamente como Vance. La estática es muy similar a las grabaciones secretas que se han hecho de otros políticos en el pasado. El ruido de fondo también dificulta que los detectores de Deepfake reconozcan el audio falso.
El hecho de que incluso las herramientas avanzadas tengan dificultades para determinar la autenticidad del archivo de audio anterior ha causado preocupación entre los expertos en el contexto de Deepfake.Profundoes una combinación de aprendizaje profundo y falso, utilizando IA para analizar los gestos, expresiones faciales y voz de una persona, recreando y editando así para crear fotos, videos y sonidos realistas.
Este tipo de IA ahora es fácilmente accesible para los usuarios comunes. Con solo un archivo de voz y una entrada de texto, las herramientas en línea gratuitas pueden crear grabaciones con contenido arbitrario.Informes de consumoObservó seis productos populares de transcripción de voz de IA y descubrió que no hay medidas efectivas para evitar que los usuarios usen mal la IA.
La semana pasada, la Agencia de Policía Europea Europol advirtió que AI está contribuyendo a la aceleración del crimen. “La IA puede automatizar la actividad criminal, haciéndola más escalable y más difícil de detectar”, dijo la organización.
Evan Dornbush, un ex experto en ciberseguridad de la Agencia de Seguridad Nacional de los Estados Unidos (NSA), dijoForbesesoAIPuede ayudar a los estafadores a crear mensajes creíbles más rápido y a un costo menor.
De acuerdo aZdnet, los usuarios aún pueden detectar el audio de Deepfake a través de la entonación. Si la voz es “monótona, arrastrada y antinatural”, podría ser AI Audio. Además, los ruidos extraños, o “demasiado claro como un estudio de grabación” también pueden ser sospechosos. Sin embargo, con los avances tecnológicos, AI está superando gradualmente este inconveniente todos los días.
ElMejor oficina de negociosOfrece esta regla: “Si algo suena demasiado bueno para ser verdad, sé escéptico”.