Ciencia y Tecnología

Periodista
mlflores@editoraperu.com.pe
Durante la Cyber Security Week 2024, María Isabel Manjarrez, investigadora de seguridad en Kaspersky, señaló que existen tres tipos de deepfake: las imágenes y videos, en la que se altera o fabrica contenido para mostrar un comportamiento o información diferente a la original; el audio o deep voice, que es la creación o modificación de un audio que parece auténtico; y por último en texto, el cual es contenido escrito que parece ser redactado por una persona real.
Lea también: Expertos en ciberseguridad advierten de riesgos en apps de transcripción de audios
“Los ciberataques que hacen uso de los deepfakes van desde la generación de desinformación (fake news), difamación, fraudes, extorsión, chantaje, manipulación de la opinión pública, la suplantación de identidad hasta el acoso”, resaltó.
Manjarrez manifestó que los deepfakes más utilizados son los de fraude financiero, con la suplantación de identidad para crear estafas; los deepfakes pornográficos, en el que la víctima aparece en una situación comprometedora; y las de estafas empresariales, empleadas para el espionaje industrial y manipulación de acciones.
El desarrollo de la inteligencia artificial ha llevado a cuestionar la seguridad de la verificación biométrica. De acuerdo con Kaspersky, el 75% de los usuarios en América Latina consideran que las herramientas biométricas son seguras. Sin embargo, no es infalible.
Los cibercriminales abren cuentas bancarias utilizando maniquíes y fotografías de sus víctimas, las cuales son obtenidas de sus redes sociales y llevadas a una inteligencia artificial generativa para imitar la apariencia, para pedir préstamos, engañando a la verificación biométrica de las aplicaciones bancarias.
Claves
Respecto a cómo lograr identificarlos, María Isabel Manjarrez dijo a El Peruano que es importante que los usuarios presten atención a los detalles: estos son las distorsiones de voz, anomalías en el fondo o entorno del video, si se logran identificar movimientos inusuales e irregulares, condiciones de iluminación inconsistentes, parpadeo extraño o ausencia total de esto, labios mal sincronizados con el habla y cambios en el tono de la piel.
Adicional a ello, se debe tener en cuenta el contexto y contenido sospechosos que transmite el material.
“En el caso de los deep voices, es más difícil de reconocerlo porque no lo ves. A diferencia de un video que puedes ver y escuchar, entonces perdemos un sentido”, recalcó.
Para verificar estos audios, recomendó poner atención en detalles como la voz robotizada y la aparición de cortes bruscos. Si se trata de la llamada de un número desconocido, lo mejor es no responder porque podrían hacerte que escuches un audio de algún familiar o amigo en problemas, o querrán grabar tu voz para usarlas en futuras estafas.
Cifra
200,000 dólares en pérdidas debido a estafas de deepfakes.
900 por ciento es el crecimiento anual de deEP- fakes, según el Foro Económico Mundial.
Lee también en El Peruano
??Perú apuesta por una central nuclear para generar energía eléctrica https://t.co/lh4PRAAJYr
— Diario El Peruano (@DiarioElPeruano) July 24, 2024
El proyecto nucleoeléctrico del @ipenperu abastecería de energía a zonas remotas y estaría listo en los próximos 10 años.
Por: ?@marinella_0126 pic.twitter.com/Ja7TpbNJiU