Falta de agua afecta a más de 2 mil familias en Zacatepec
Declaran reforma constitucional que prohíbe fentanilo y sanciona vapeadores
Gobernadora Margarita González Saravia presentará informe de 100 días en Cuernavaca
México consolida liderazgo como socio comercial de Estados Unidos
La Luna teñida de rojo: un espectacular eclipse lunar iluminará el cielo en marzo de 2025
Algunos derechos reservados © 2024. Instituto Morelense de Radio y Televisión. Medio Público comprometido con la sociedad a difundir contenidos que construyen ciudadanía y que difunden Ciencia, Valores y Cultura producida en Morelos. rtvmorelos.mx
Manipulación de imágenes y clonación de voces son los principales trucos producidos con inteligencia artificial que desde febrero han detectado en fraudes y extorsiones, que aumentaron considerablemente con el uso de chatbot: un software capaz de mantener una conversación en tiempo real por texto o voz, suplantando a la persona.
Aseguró el promotor de seguridad digital, Joksan Terrones Menchaca, quien refirió que el Banco de México advirtió de la difusión en redes sociales de un video falso, donde usan la imagen y falsean la voz de personalidades de la vida pública de México, con el uso de inteligencia artificial.
Además, abundó, genera documentos falsos que potencian la comisión de fraudes.
Y en redes sociales circulan denuncias de quienes han recibido llamadas de supuestos familiares, con voz clonada, que les piden dinero para afrontar alguna emergencia.
“A través de TikTok se utiliza muchísimo estas herramientas o los videos de Facebook descargan la voz, pueden utilizar también fotografías tuyas, las pueden utilizar con inteligencia artificial y sobreponerlas o sobre todo, adaptarlas a una llamada telefónica tuya, por lo cual obviamente cuando llamas a la persona o te llama la persona, pues obviamente conoces que es la voz de tu hijo o hija, por lo cual obviamente tú puedes caer inmediatamente en ese tipo de fraude, por lo que se recomienda a la gente nuevamente a constatar o a marcar a las personas que supuestamente son secuestradas o que están bajo un delito”.
Joksan Terrones Menchaca / Promotor seguridad digital.
Para no ser víctima en caso de llamadas telefónicas donde exista la duda, recomendó plantear preguntas que solamente sepa contestar el familiar a quien clonaron la voz, porque la inteligencia artificial no puede resolver, y detectar la suplantación.
Deja un comentario