La nueva estafa a los usuarios de Chat GPT que vacía cuentas bancarias
Crédito: Foto cortesía Pixabay
Expertos en seguridad cibernética han descubierto que un grupo de delincuentes han utilizado a ChatGPT para ejecutar ataques de 'software' malicioso y estafar a los usuarios de la IA robando sus cuentas bancarias. Conozca los detalles.
Por: Redacción Cambio
Investigadores expertos en seguridad cibernética han descubierto que delincuentes han utilizado la herramienta de inteligencia artificial ChatGPT, desarrollada por Open AI, para crear cepas de malware y ejecutar ataques de software malicioso.
ChatGPT es un prototipo de chatbot de inteligencia artificial desarrollado por OpenAI en 2022, que se especializa en el diálogo, entrenado para mantener una conversación e interactuar con humanos de manera natural que brinda una respuesta en texto y genera ideas. Además, es un chat que se basa en el modelo de lenguaje GPT 3.5.
En la última semana, un grupo de investigadores de ciberseguridad encontró que algunos ciberdelincuentes estarían utilizando ChatGPT para ejecutar campañas de malware. Un fraude que utiliza la creación de OpenAI para dañar o explotar cualquier servicio o red programable.
A través de esta acción maliciosa los estafadores pretenden robar datos de cuentas personales, tarjetas de crédito y otro tipo de información bancaria.
Al respecto, la investigadora de la compañía global de Seguridad Informática ESET Latinoamérica, Sol González, manifestó: "Es por esto que cuando se habla de que una tecnología puede ser utilizada para la optimización, quedan incluidos todos los procesos, como aquellos que son utilizados para desplegar amenazas".
Lea además: Inteligencia Artificial: más allá del ChatGPT
¿Cómo operan los ciberdelincuentes en Chat GPT?
Los expertos en seguridad cibernética descubrieron una extensión fraudulenta que ofrece acceso directo al chatbot llamada “Quick access to Chat GPT”.
Millones de personas que acceden diariamente a la plataforma de IA son engañados por los estafadores, ya que estos crean cuentas oficiales de OpenAI o comunidades de Chat GPT donde publican contenido falso sobre el chatbot.
Los estafadores incitan a que los usuarios descarguen “Quick access to Chat GPT” tras el engaño de que por este medio, la plataforma no colapsará. Sin embargo, una vez dado el clic en el enlace, dirige al usuario a una página "supuestamente oficial" del chatbot y al introducir el registro de usuario y contraseña, roba automáticamente los datos personales del usuario.
Para profundizar: Cómo funciona la inteligencia de ChatGPT
Por consiguiente, esta acción maliciosa recoge las cookies de navegación, incluidas credenciales de seguridad de sesión de Google, y datos de las redes sociales Facebook, Twitter, YouTube y demás plataformas.
Estos datos son utilizados por los ciberdelincuentes para cometer múltiples delitos, como suplantación de identidad, vaciar cuentas bancarias y otro tipo de delitos. Los expertos explican que esta descarga inyecta a los usuarios un malware de robo de información alcanzada en las aplicaciones de los usuarios, como de su navegador web.
La empresa de ciberseguridad Guardio denunció esta amenaza que, luego de seis días en operación, fue eliminado del repositorio oficial de Chrome. La extensión registró un promedio de 2.000 instalaciones diarias, acorde con los datos de la empresa ESET.
Guardio hizo una advertencia a los usuarios de Chat GPT ya que estas plataformas también emplean la compraventa de productos o bienes ilegales y extensiones maliciosas, al respecto les pide a los usuarios estar atentos antes de realizar cualquier tipo de descarga dentro de la plataforma.
Tras hacer las comprobaciones pertinentes, la compañía ESET compartió los siguientes consejos para evitar estafas:
- Asegurarse de que la dirección web visitada es la correcta y no una versión falsa.
- Verificar si el sitio web tiene un certificado de seguridad válido, y que el mismo esté firmado por la compañía que dice ser .
- Evitar proporcionar información personal o financiera si no es seguro que el sitio web es legítimo.
- No hacer clic en enlaces o descargar archivos adjuntos de correos electrónicos, mensajes de redes sociales, de mensajería instantánea como WhatsApp, Telegram, de texto sospechosos o de remitentes desconocidos.
- Utilizar software de seguridad para proteger el equipo contra el malware y otras amenazas.
Chat GPT 4 ¿una amenaza a la ciberseguridad?
Open AI lanzó una versión de Chat GPT4 optimizada en una versión multimodal, es decir, que no solo interactúa con texto, sino que también con imágenes para dar respuestas y describir lo que el chatbot visualiza.
"Ahora tenemos una versión GPT4, que puede brindar respuestas más extensas y actualizadas respecto a la versión anterior", explicó Víctor Solano, experto en tecnología.
El presidente y cofundador de Open AI, Greg Brockman, demostró algunas funciones que aterrizarán próximamente en la versión más sofisticada de ChatGPT, entre ellas está la posibilidad de crear páginas web a partir de un dibujo en papel, además, la capacidad de que el robot encuentre brechas de seguridad en sitios que comparta el usuario.
Al respecto, estas herramientas que brinda la nueva versión representa una división pues algunos expertos aseguran que por un lado, un ciberdelincuente puede configurar páginas fraudulentas con mayor facilidad y por otro lado, los usuarios podrán tener un refuerzo doble de seguridad a la hora de acceder a algún sitio web.
Finalmente, Sol González concluyó: "Como con cualquier tecnología, es importante tener en cuenta sus posibles usos malintencionados y siempre usarla de manera responsable y ética. Citando un ejemplo, podemos volver unos años atrás con la creación de las criptomonedas, muchos usuarios buscaban tener anonimato en cuanto a las transacciones que realizaban en internet, definitivamente bitcóin vino a cubrir esa necesidad. Sin embargo, los cibercriminales vieron un gran beneficio en cuanto al anonimato es por esto que fue una de las grandes razones por la que se vincula el cibercrimen con las criptomonedas. En definitiva ni las criptomonedas atentan contra el usuario, ni tampoco ChatGPT, depende del contexto".