Blog Legal

Cinco consejos para detectar estafas creadas con IA

CIUDAD DE MÉXICO (apro).- La empresa de ciberseguridad Kaspersky, compartió cinco consejos clave ante el aumento del 220% en engaños creados con inteligencia artificial (IA).  

En los últimos años, se han vuelto populares los deepfakes, que son videos, imágenes o audios generados por IA, que imitan de forma realista la apariencia y voz de una persona para lograr que diga o haga algo que nunca ocurrió; esta tecnología es capaz de engañar tanto a los humanos como a los algoritmos. 

De acuerdo con una encuesta de Kaspersky, el 72% de la población no sabe qué es un deepfake, y 62% asegura no saber cómo reconocer este tipo de contenido. 

Los deepfakes no siempre son malintencionados, sin embargo, su uso indebido en fraudes financieros, desinformación, estafas empresariales, extorsión, chantaje político, venganza, acoso y pornografía, plantea graves riesgos.

En 2024, las estafas con audios, videos y mensajes falsos incrementaron 220% en México, de acuerdo con el Panorama de Amenazas 2024 de Kaspersky.

Una de las trampas más populares es la suplantación de identidad de personajes famosos para engañar a las víctimas.

Este fraude tiene el objetivo de llamar la atención de internautas con la imagen de famosos que promocionan “productos milagro” o dinámicas. Los seguidores ingresan a sitios de internet donde registran sus datos personales y bancarios; a veces realizan compras de supuestas mercancías que nunca reciben.

Ante este panorama, los expertos de Kaspersky ofrecieron una guía de cinco pasos para identificar un video falso y evitar ser víctima de las modernas formas de estafa: 

Atención a ojos y boca: los deepfakes suelen fallar en replicar los movimientos naturales de los ojos y la boca. Si la persona parpadea muy poco o de forma extraña, o si los labios no están sincronizados con el audio, podría tratarse de un video manipulado con IA.

Observa la iluminación y las sombras: revisa si la luz en el rostro es similar a la que tiene el resto del cuerpo o el fondo del video. Las sombras que no coinciden o los brillos extraños pueden delatar una edición artificial.

Escucha el audio con atención: un tono de voz robótico, cortes bruscos o falta de locución natural son características de un audio generado o editado con IA.

Detecta señales como pixeles borrosos alrededor del rostro, bordes que cambian de forma o incluso gestos corporales poco naturales.

Verifica el origen del video: antes de compartirlo, revisa si proviene de una cuenta oficial. Consulta el perfil de la persona involucrada u otros medios confiables. Si el video únicamente circula en mensajes reenviados o cuentas sospechosas, podría ser falso. 

Los deepfakes se han vuelto un reto social por su impacto en la desinformación, manipulación de la opinión pública, noticias falsas, suplantación de identidad, daño reputacional, debilitamiento de la confianza pública, entre otros. 

Con el avance tecnológico, su creación ya no es exclusiva de personas con conocimiento técnico, sino que existen softwares gratuitos para la producción rápida de estas falsificaciones.

El equipo global de Investigación y Análisis de Kaspersky, concluyó que “en un mundo digital que avanza a gran velocidad, mantenerse informado sobre cómo evoluciona la tecnología ya no es opcional, es una forma de autoprotección”.

Te podría interesar

Blog Legal

CIUDAD DE MÉXICO (France 24) .- Ataques aéreos israelíes en Gaza dejaron al menos 23 muertos este domingo, incluidos una mujer embarazada de siete...

Blog Legal

Contenido1 Quiénes recibirán los pagos y por qué2 Montos y cobertura por beca3 Calendario de pagos y atención por apellidos4 Qué pasa si aún...

Blog Legal

CIUDAD DE MÉXICO (apro).- Atziri Galeana, una futbolista amateur de 15 años, perdió la vida la tarde de este sábado 24 de mayo en...

Blog Legal

Contenido1 Onda de calor en 11 estados el lunes2 Valle de México3 Resumen del pronóstico de 72 a 96 horas (del martes 27 al...

Blog Legal

CIUDAD DE MÉXICO (apro).- Durante la una reunión extraordinaria y semipresencial de la Comisión de Transparencia y Anticorrupción de la Cámara de Diputados, el...

Blog Legal

GUANAJUATO, Gto., (apro).- Once elementos de la Guardia Nacional, adscritos a diversos batallones de esta institución, fueron sorprendidos en flagrancia mientras conducían y resguardaban...

Blog Legal

CHILPANCINGO, Gro. (apro).- Maestros de la Coordinadora Estatal de Trabajadores de la Educación de Guerrero (CETEG) y de la Coordinadora Nacional de Trabajadores de...

Blog Legal

BOGOTÁ (apro).- El chavista Nicolás Maduro anunció este domingo que impulsará una reforma electoral que incluirá la creación de un nuevo sistema votaciones basado...

Titulares

Desesperado por la ausencia de sus dos pequeñas hijas, Mario Alfredo Espinoza Bernardino, padre de las dos niñas re victimizadas en Zimapán, Hidalgo, interpuso...

Blog Legal

CIUDAD DE MÉXICO (apro).- Una presunta nueva modalidad de fraude fue captada en video en calles de la Ciudad de México. En las imágenes...

Videos

El Poder Judicial de la Ciudad de México, en coordinación con el Comité para el Fomento, Promoción y Difusión de los Derechos de las...

Blog Legal

Contenido1 Candidata de Tamiahua denuncia intimidaciones2 Agreden a equipo del PT en Misantla3 PT acusa “terrorismo de Estado” y falta de protección4 OPLE de...

Blog Legal

Contenido1 Beneficiarios2 Calendario3 Recomendaciones CIUDAD DE MÉXICO (apro).— Esta semana concluyen los pagos del bimestre mayo-junio de las pensiones para Adultos Mayores y de...

Blog Legal

CIUDAD DE MÉXICO (apro).-  La Secretaría de Seguridad Ciudadana (SSC) informó que “comenzó un proceso de ajuste en el cuadro de mandos para fortalecer el...

Blog Legal

TOLUCA, Edomex (apro).- Las fiscalías del Estado de México y de la Ciudad de México detuvieron a Lourdes Yohana y Víctor Heladio “N” por...

Copyright © 2022 Pasantes DF

Salir de la versión móvil