Un nuevo caso de extorsión se presentó en el mundo, a través de la inteligencia artificial. Los hechos ocurrieron en Scottsdale, Arizona, Estados Unidos. En donde una banda delictiva hizo uso de esta nueva herramienta digital para clonar la voz de una niña y amedrentar con los audios a su madre, para exigirle una gran suma de dinero.
La mujer estadounidense Jennifer DeStefano, presentó una denuncia a la Policía, luego de este intento de extorsión mediante una llamada telefónica.
Según el relato de la mujer, estos sujetos le anunciaron que tenían secuestrada a su hija y que si no pagaba por su rescate o llamaba a las autoridades: “le reventarían el estómago con drogas y la dejarían en México”.
En la llamada telefónica le exigieron la suma de un millón de dólares para liberar a su hija o sino la matarían a ella y a su familia, contó la mujer en una entrevista al programa estadounidense Arizona Family. Según mencionó la madre, los delincuentes sabían que su hija no se encontraba con ella porque estaba fuera de la ciudad realizando deporte y en el audio clonado suena la voz diciendo “mamá, lo arruiné”.
Posteriormente, le colgaron la llamada y la mujer logró comunicarse con su hija en donde se dio cuenta que era una estafa. El caso fue tomado por el FBI, en donde mencionaron que los delincuentes están haciendo uso de las nuevas herramientas digitales como la inteligencia artificial para clonar voces y encontrar a las víctimas, a través de redes sociales.
Debido al uso indebido de la inteligencia artificial Cristian Montenegro, experto en tecnología y en esta nueva herramienta digital habló con Noticias RCN sobre este tema.
¿Cree que Google puede tomar acciones o medidas para controlar este tipo de casos?
C.M: Considero inviables las medidas que se puedan tomar por parte de empresas como Google, para evitar esta clonación de voces o incluso videos. Actualmente, por ejemplo, una persona que sepa manejar herramientas como Photoshop puede tomar fotos de la web, editar imágenes y manipularlas para efectos políticos, casos que se presentan mucho. También, va a pasar algo similar con los audios, videos y con todos estos avances de Inteligencia Artificial. Por otro lado, a nivel de las empresas que recolectan información a nivel de leyes sí se podría establecer una política más estricta, en el sentido de blindar que las personas sepan exactamente qué se va a hacer con su información, a quién se la está pasando y tener control sobre sus datos. Hacia eso le están apuntando todas estas iniciativas de la web 3.
¿A qué le están apuntando estas iniciativas de la web 3?
C.M: Por ejemplo, empresas como Facebook, Twitter, Instagram y WhatsApp son herramientas que no le están cobrando a uno, pero en el fondo están utilizando los datos para monetizar. De alguna manera, lo que busca este campo de la web 3 es que uno sea el dueño de sus datos y pueda decidir para qué uso se van a dar. Por ese lado en general, la comunidad tecnológica y desde el punto de vista de las leyes se debe poner un poco más estricta.
¿Qué opinión tiene acerca de la clonación de voces con inteligencia artificial?
C.M: Es un tema más de las familias, por ejemplo, en Colombia lo han hecho estafando a las personas mencionando que tienen secuestrado a alguien cercano. En el caso de la inteligencia artificial también es conveniente hacerle preguntas al estafador porque por más informado que esté no va a saber contestar algunas respuestas.
¿Qué recomendaciones se le puede dar a la comunidad?
C.M: Debe haber unas medidas de precaución en las familias con palabras claves, santos y señas. Por otro lado, los medios de comunicación juegan un papel importante para difundir información y comunicar que estos casos están ocurriendo para que haya difusión y la gente esté enterada de este tipo de situaciones. Fuente NoticiasRCN