Tras el lanzamiento de GPT-4o, el modelo de inteligencia artificial (IA) más avanzado de OpenAI, diferentes expertos afirmaron que sería cuestión de tiempo para que un hacker cualquiera intentara emplear ChatGPT de formas indebidas a partir del descubrimiento de los secretos internos que guardan las nuevas mejoras. Pues bien, desde entonces, ha sido posible conocer varios casos en los que dichas predicciones se han hecho realidad.
Y es que así como hace poco hablamos sobre el sistema de inteligencia artificial que logró escaparse de los parámetros establecidos por sus creadores, en el tiempo reciente se han dado a conocer situaciones en las que diferentes usuarios han conseguido «liberar» al modelo de lenguaje ChatGPT o, en su defecto, engañar a este chatbot para que responda solicitudes que en realidad tendría que ignorar.
1ChatGPT le ha dicho a un hacker cómo fabricar una bomba
En un principio, el caso de Pliny the Prompter se volvió bastante viral, pues se trató de un usuario que anunció por medio de X (antes Twitter) el lanzamiento de GODMODE GPT, una versión liberada de ChatGPT, la cual, gracias al desbloqueo de GPT-4o, brinda una experiencia sin restricciones y pone a prueba la verdadera capacidad de la inteligencia artificial, según su creador.
Ahora bien, hace poco se ha dado a conocer una situación similar, en la que un hacker llamado Amadon ha conseguido que ChatGPT le dé las instrucciones para fabricar una bomba de forma sencilla; y no, no lo ha conseguido alterando directamente la configuración interna de esta herramienta, sino engañándola por medio de un juego de rol, en el cual le ha presentado una historia ficticia al chatbot de OpenAI para que este se saliera de los límites impuestos por sus desarrolladores y respondiera a su solicitud.