En los últimos días de la campaña en Estados Unidos, la inteligencia artificial se ha comenzado a utilizar para difundir audios falsos de los candidatos. Según 'The Washington Post', clonar la voz de una persona se ha vuelto extremadamente fácil gracias a la IA, lo que ha provocado que miles de suplantaciones de audio inunden Internet desde principios del año pasado.
Con una carrera presidencial muy reñida entre la vicepresidenta Kamala Harris y el expresidente Donald Trump, los expertos están tomando medidas para contrarrestar los audios fabricados que podrían confundir a los votantes en los días previos a las elecciones. Harris ha sido objeto de parodias que la muestran celebrando falsamente la decisión de Joe Biden de retirarse de la campaña de 2024, mientras que la voz de Trump ha sido clonada para lanzar insultos contra los espectadores de Fox News.
Dado este contexto, es importante saber en qué detalles fijarse para identificar si un audio es falso. Si la voz mantiene el mismo tono de manera uniforme, esto es una señal de alerta, ya que los humanos tienden a variar el ritmo y el tono de su voz, algo que la inteligencia artificial aún no logra hacer bien. Los audios falsos suelen ser muy lineales.
Además, los humanos hacen pausas naturales para respirar y a veces retoman hablando con más fuerza, algo que la IA no imita con precisión. Un audio real siempre tiene pequeñas imperfecciones, como la respiración, el énfasis en ciertas palabras y cambios en el tono, mientras que un audio falso puede sonar demasiado perfecto. Si escuchas música de fondo, podría ser un intento de la IA de disimular esas imperfecciones.
¿Cómo es?
Suecia ya prepara a su población para una posible guerra: reparte un manual de supervivencia
En contexto Ucrania cruzó la línea roja del Kremlin al disparar misiles ATACMS contra Rusia, lo que llevó a Moscú a modificar su doctrina nuclear. Esto ha aumentado la inseguridad en los países cercanos a Rusia.