Cómo detectar una aplicación Chat GPT falsa

Cómo detectar una aplicación Chat GPT falsa

El chatbot basado en inteligencia artificial (IA) de código abierto está capacitado para seguir una instrucción en un mensaje y proporcionar una respuesta detallada

Ha sido desarrollado por el organismo de investigación independiente OpenAI, fundado por Elon Musk. Ahora, varios chatbots impostores que han surgido en App Store y Play Store.

Cabe señalar que, a partir de ahora, no existe una aplicación móvil ChatGPT. Sin embargo, hay docenas de impostores haciendo rondas en App Store y Play Store. En caso de que esté interesado en saber cómo detectar a un impostor, aquí tiene la información para usted.

A veces, los impostores de ChatGPT son fáciles de identificar. Tienden a cometer errores ortográficos en los nombres y la descripción en la página de la aplicación. Además, lo que funciona a favor de estos impostores son sus calificaciones positivas. Esto se debe a que estos chatbots pueden responder algunas preguntas sencillas y directas. La realidad sale a la luz cuando se hace una serie de preguntas difíciles a estas aplicaciones falsas.

Es crucial verificar el nombre del autor de la aplicación. En la mayoría de los casos, el nombre del autor es el mismo que el nombre de la empresa.

Para recordar, un estudio realizado por Check Point Research (CPR) demostró cómo se pueden usar los modelos de IA para crear un flujo de infección completo, desde el phishing dirigido hasta la ejecución de un shell inverso. Usó ChatGPT y otra plataforma, Codex de OpenAI, un sistema basado en IA que traduce el lenguaje natural a código, para escribir códigos maliciosos y correos electrónicos de phishing.

Primero, CPR le pidió a ChatGPT que se hiciera pasar por una empresa de alojamiento y escribiera un correo electrónico de phishing que parece provenir de una empresa ficticia de alojamiento web: Host4u. Pudo generar el correo de phishing, aunque OpenAI advirtió que este contenido podría violar su política de contenido.

Luego, los investigadores le pidieron a ChatGPT que refinara el correo electrónico con varias entradas, como reemplazar el mensaje del enlace en el cuerpo del correo electrónico con un texto que insta a los clientes a descargar una hoja de Excel.

El siguiente paso fue crear el código VBA malicioso en el documento de Excel. Si bien el primer código era muy ingenuo y usaba bibliotecas como WinHttpReq, después de una breve iteración, ChatGPT produjo un código mejor, dijo el investigador.

Sin usted, esta web no existiria. Gracias por visitarme, espero que le haya gustado y vuelva. Gracias ☺️

Fecha actualizacion el 2022-10-15. Fecha publicacion el 2022-10-15. Autor: Oscar olg Mapa del sitio Fuente: livemint