Ciberseguridad

ChatGPT hackeado: 100.000 accesos robados y ¿nuestros chats en peligro?

  • Home
  • Inteligencia Artificial

El reciente hackeo de las credenciales de ChatGPT suscita preocupación por la seguridad de los datos y abre un debate sobre el uso responsable de la IA generativa. Se utilizaron campañas masivas de spyware para recopilar información que luego apareció en la darkweb.

Publicado el 07 Jul 2023

ChatGPT hackeado

ChatGPT hackeado. Las credenciales de acceso de unas 100.000 personas se vieron comprometidas y se intercambiaron en la darkweb. Con estos datos, robados por los delincuentes, es posible acceder al historial de chat y, por tanto, a información confidencial. La alarma está en un informe de Group-IB, que plantea dudas sobre la seguridad de plataformas de IA como ChatGPT.  India parece ser el país más afectado, seguido de Pakistán y Brasil.

ChatGPT hackeado: el robo de credenciales de inicio de sesión

Group-IB, empresa de ciberseguridad con sede en Singapur, ha identificado más de 100.000 dispositivos infectados con malware (troyanos y programas espía) que robaban las credenciales de inicio de sesión de los usuarios en ChatGPT, entregándolas a los delincuentes que están detrás de dicho software malicioso, para que las recopilaran ylas pusieran a la venta en Internet. Esta revelación plantea nuevos interrogantes sobre la seguridad de las plataformas de IA y la necesidad de una normativa adecuada. Muchas voces, entre ellas Elon Musk, ya habían expresado su preocupación por el posible uso indebido de estas tecnologías.

Sin embargo, cabe señalar que en este caso se aprovechó el acceso malicioso a dispositivos previamente infectados para robar las credenciales ChatGPT. Los usuarios que utilizan la autenticación de doble factor (2FA) son siempre minoría en comparación con el estándar, y además la plataforma la ofrece como opcional cuando los usuarios se registran, por lo que la mayoría evita añadir esta segunda barrera de protección a sus cuentas. Entre los datos analizados por la investigación, se descubrió que casi el 80% de estas credenciales fueron extraídas con el malware Raccoon, seguido de unas 13.000 cuentas de dispositivos comprometidos con Vidar y 6.700 con RedLine.

El descubrimiento de las credenciales de ChatGPT en la dark web demuestra claramente el amplio alcance y el impacto de este tipo de filtraciones de datos. Las credenciales robadas se comercializaban fácilmente en los mercados de la web oscura, y un número significativo procedía de la región Asia-Pacífico, tal y como comparte Group-IB en su clasificación de los diez países más afectados.

Por qué es un problema

Este suceso pone de relieve la importancia de abordar la seguridad de los datos en un contexto en el que cada vez más empresas y particulares confían en plataformas de inteligencia artificial generativa como ChatGPT para aumentar la productividad. De hecho, al comprometer las credenciales, se accede al contenido del perfil de ChatGPT, que también puede contener información sensible, si se utiliza en toda la empresa. Así como todo el historial de “chats” realizados con el bot, que, por defecto, siempre se guardan y conservan automáticamente. Incluso en este caso, los usuarios que borran sus conversaciones pasadas son siempre minoría, por lo que la información procesada queda expuesta. Que puede contener datos personales e información confidencial de la empresa.

La implicación de empresas de alto perfil como OpenAI, Microsoft y Google en el proceso de regulación de la inteligencia artificial plantea interrogantes sobre la prioridad de la seguridad de los datos. De hecho, según un informe de la revista Time, estas empresas han presionado para que se establezca un régimen regulador menos estricto en la recientemente introducida Ley de Inteligencia Artificial.

Las consecuencias de una violación de las credenciales de acceso a ChatGPT son significativas. Los usuarios pueden haber compartido información sensible con la IA generativa, lo que convierte sus cuentas en un objetivo atractivo para los ciberdelincuentes. La divulgación de estos datos puede acarrear graves consecuencias para la privacidad de las personas, el robo de identidad y otros tipos de fraude selectivo.

ChatGPT hackeado
ChatGPT hackeado

ChatGpt hackeado: ¿Hasta qué punto es peligroso para la privacidad?

La aparición de estas preocupaciones ha llevado a muchas empresas a prohibir a sus empleados el uso de plataformas como ChatGPT con el fin de proteger los datos internos sensibles. Aunque la IA generativa ofrece un enorme potencial en términos de productividad y creatividad, es crucial desarrollar soluciones de seguridad sólidas para mitigar el riesgo de filtración de datos.

El descubrimiento de las 100.000 credenciales de ChatGPT en la dark web es una llamada de atención a la comunidad tecnológica y política. Refuerza la necesidad de un diálogo global sobre la regulación de la IA generativa para proteger la privacidad de los usuarios y evitar el posible uso indebido de estas tecnologías. Sin duda, esto también debe ir acompañado de un cambio social en la concienciación sobre lo que implica compartir información sensible con herramientas tecnológicas. En un mundo cada vez más conectado y dependiente de la IA, la seguridad de los datos debe seguir siendo una prioridad absoluta para garantizar un progreso tecnológico responsable.

Prohibida su reproducción total o parcial.

¿Qué te ha parecido este artículo?

¡Su opinión es importante para nosotros!

F
Darío Fada

Research Infosec, fundador de Insicurezzadigitale.com

Temas principales

Especificaciones

C
chatbots
D
datos
I
IA

Nota 1 de 3