Convertir tu comunidad en un DAO

Cómo protegerse de las estafas deepfake

Si bien la inteligencia artificial se puede usar para crear, por ejemplo, una jugada por jugada de un juego de los Dodgers con una voz simulada del difunto Vin Scully, los estafadores también pueden usarla para imitar su voz y manipular a otros.

Los medios sintéticos, también conocidos como "deepfakes", están distorsionando la realidad en la que vivimos. Son grabaciones de video y audio hiperrealistas creadas por tecnología de inteligencia artificial.

Veritone Inc. en Irvine, está dominando las voces sintéticas, haciéndolas sonar como las de la gente real.

"Somos una empresa empresarial, otorgamos licencias y vendemos diferentes soluciones basadas en IA a cientos de empresas diferentes en todo el mundo", dijo Ryan Steelberg, director ejecutivo y presidente de Veritone.

Uno de los nuevos proyectos de Veritone implica la creación de un gemelo digital del difunto Vin Scully. "Ahora podemos recrear la voz del Sr. Scully, para los fines que su patrimonio quiera usar", dijo Steelberg. Una posibilidad es que los fanáticos de los Dodgers disfruten de un juego mientras escuchan una jugada por jugada realizada con el clon de voz de Scully.

Es una tecnología asombrosa, sin duda, pero en las manos equivocadas, extremadamente peligrosa.

"Estos son piratas informáticos que intentan usar cualquier herramienta a su disposición para confundirlo y potencialmente inducirlo a hacer algo inapropiado", dijo Steelberg.

Los estafadores pueden copiar su voz de una simple llamada telefónica o estudiarlo a partir de publicaciones en las redes sociales. "La gente puede usar esos datos y manipularlos y recolectarlos, y potencialmente crear 'deepfakes'", dijo Steelberg.

Un "deepfake" popular en TikTok involucra la imagen de Tom Cruise. Sorprendentemente, Cruise no tiene ningún problema con eso. "Absolutamente podría exigir que se elimine el contenido, pero tomó la decisión de que cree que es bueno para su marca", dijo Steelberg.

Pero no le gustaría tanto si su imagen y su voz se usaran para difundir información errónea o estafas. Desafortunadamente, la suplantación de identidad fraudulenta, usando "deepfakes" llegó para quedarse.

Para evitar convertirte en una víctima, debes cuestionar todo. “Es como el tráfico de drogas, hay tanto dinero en él, que hay una audiencia cada vez más grande de malos actores que lo hacen”, dijo Steelberg.

Si alguien te pide dinero, considéralo una señal de alerta. Con esta nueva tecnología no puedes creer lo que ves o lo que escuchas. Nunca ha sido más importante ser diligente, verificar la fuente y usar el sentido común.

Sin usted, esta web no existiria. Gracias por visitarme, espero que le haya gustado y vuelva. Muchas gracias ☺️

Fecha actualización el 2023-01-21. Fecha publicación el 2023-01-21. Autor: Oscar olg Mapa del sitio Fuente: foxla