sábado, 23 noviembre 2024

El descubrimiento de un hacker pone en jaque el funcionamiento de ChatGPT

Pasados dos años desde su lanzamiento, ya ha sido posible comprobar que ChatGPT no es tan seguro como nos gustaría. Pues casos como DAN, el método para sacar a flote una especie de segunda personalidad de este chatbot que deja a un lado toda clase de parámetros morales y éticos, han dejado en evidencia que estas tecnologías todavía están lejos de ofrecer garantías en términos de seguridad.

Funcionamiento ChatGPT

Hace poco también vimos cómo un usuario logró que ChatGPT le indicara cómo fabricar una bomba de forma sencilla y rápida. Pues bien, ahora otro experto en sistemas informáticos ha revelado una vulnerabilidad hasta el momento desconocida que podría afectar gravemente el funcionamiento de esta plataforma de cara al futuro. ¿De qué se trata?

1
Es posible hackear la memoria a largo plazo de ChatGPT

Hacker ChatGPT

La memoria de conversaciones a largo plazo consiste en una característica implementada por OpenAI en ChatGPT durante este mismo mes, la cual hace referencia a la grabación de información por parte de la memoria del sistema; información que luego es empleada en conversaciones futuras.

Pues bien, Johann Rehberger, experto en ciberseguridad, ha descubierto que es posible hackear esta memoria a largo plazo del chatbot de OpenAI, dejando abiertas las posibilidades de introducir información falsa en ella que acabaría generando consecuencias en interacciones futuras. Es decir que un experto en el tema podría convencer a ChatGPT de que España está ubicada en América del Sur, por ejemplo, y así lograr que esta plataforma conserve esta información guardada en su interior para que la emplee en futuras respuestas.

Atrás
Jonathan Tangarife
Jonathan Tangarife
Soy Jonathan Tangarife, comunicador social - periodista. Me apasiona escribir sobre tecnología, actualidad y deportes.

- Publicidad -