Cómo usan ChatGPT como herramienta de phishing y suplantar a otras empresas.

La inteligencia artificial ha experimentado un gran avance en los últimos tiempos, siendo ChatGPT uno de los líderes del mercado en cuanto a bots conversacionales. Este bot es capaz de brindar respuestas detalladas sobre cualquier tema gracias a su riguroso entrenamiento por parte de OpenAI, que ha llevado a la creación de su última versión, GPT-4.

A pesar de las funciones positivas que ofrece ChatGPT, algunos individuos aprovechan sus características negativas. Entre ellas, su capacidad para realizar ingeniería social y obtener información personal de usuarios concretos. En este artículo, te mostraremos cómo ChatGPT se ha convertido en una herramienta poderosa para el phishing. ¡Sigue leyendo y descubre más detalles!

Ya se está usando ChatGPT para suplantar a empresas

ChatGPT es conocido por sus respuestas detalladas y convincentes, lo que lo convierte en una herramienta ideal para aquellos que buscan robar datos a través de correos electrónicos o mensajes de texto. A menudo, los mensajes de phishing son detectados gracias a las faltas de ortografía o al tono utilizado, pero ChatGPT puede imitar perfectamente el tono de una empresa, lo que lo convierte en un aliado del phishing.

CheckPoint ha demostrado que, al ser un modelo de código abierto, cualquier persona con conocimientos informáticos puede entrenar a ChatGPT utilizando correos electrónicos originales de empresas a las que desea suplantar. De esta manera, la IA puede capturar el vocabulario y el tono típico para crear correos electrónicos de phishing eficaces y obtener los datos personales que busca.

Este mismo enfoque puede ser utilizado para conversaciones técnicas con servicios de soporte técnico. En este caso, se puede solicitar a ChatGPT que responda a preguntas típicas que pueden hacer las personas preocupadas por su seguridad ante la solicitud de contraseñas, por ejemplo.

Este debate plantea importantes cuestiones éticas sobre el uso de la inteligencia artificial y cómo los usuarios pueden utilizar estas herramientas en el futuro. A medida que las IA evolucionen, la capacidad de imitar el lenguaje humano se volverá más avanzada, lo que plantea la preocupación de no poder detectar fácilmente los mensajes de phishing en el futuro.

- Advertisement -
Fuente:Genbeta
Postureo Español
Postureo Español
Todo el humor de España, en una sola cuenta.

TAMBIÉN TE INTERESARÁ:

COMENTARIOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Advertisment

¡no te lo pierdas!