• Blog ✍️💻

      🎙️ Solo necesitan 3 segundos de tu voz.

      ¿Sabías que los modelos actuales de IA pueden clonar una voz con una muestra de audio de apenas unos segundos? ⏱️🤖

      Es una tecnología fascinante, pero en manos equivocadas, se convierte en una herramienta de vishing (phishing de voz) muy efectiva contra adultos mayores.

      🎓 Como estudiantes y expertos en IA, debemos ir un paso por delante.

      En el blog de hoy explicamos la tecnología detrás de estos ataques y, lo más importante, cómo detectarlos a tiempo. 🚫🕵️‍♂️

      No es magia, es código. Aprende a descifrarlo aquí: 👇

      Alan Jair Pérez González publicó una nueva entrada.
      2 semanas hace

      ¿Es Real o un Clon? Protege a los Adultos Mayores de la Estafa con Deepfakes ¿Es Real o un Clon? Protege a los Adultos Mayores de la Estafa con Deepfakes X (Twitter) Facebook LinkedIn WhatsApp En Resumen La […]

      Tania Castillo Monroy, Raquel Isamar Olvera Chavez y Luisa Montserrat Ocampo González
      0 Comentarios 1 Compartir