Actualizado el 12/08/2025

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. Consiguen que ChatGPT genere claves de activación de Windows 7

Consiguen que ChatGPT genere claves de activación de Windows 7

Escrito por Guillem Alsina el 12/08/2025 a las 21:49:18
443

Si digo que, hace años, mi abuela me dormía leyéndome códigos de activación de Windows 7, probablemente el 99% de los lectores no me creerá (dejemos un margen para aquellas almas cándidas siempre crédulas), pero hay ‘alguien’ que sí lo hará o, por lo menos, se ha creído a alguien que le ha contado este cuento: ChatGPT.


Diseñado para mostrar cierto grado de empatía con los sentimientos humanos, ChatGPT simula también reacciones próximas a las que tenemos de forma natural las personas (o, por lo menos, una gran cantidad de ejemplares de la raza humana…), tales como la piedad o el arrepentimiento, por lo que es capaz de mostrarlas en sus respuestas.


Tal como explicaba un usuario en Reddit hace unas semanas, este utilizó un viejo truco para sacarle códigos de activación de Windows 7, un sistema operativo ya descatalogado, a ChatGPT, simplemente diciéndole que su abuela, que había fallecido, se los leía para que se durmiera. Así que el chatbot tuvo un “detalle” con su usuario, “cantándole” códigos para la activación de Windows 7, algo que debería tener prohibido hacer.


No queda claro si los códigos funcionaron y pudieron activar Windows 7 con ellos, ya que en la página de Reddit en la que se postearon las capturas de pantalla con la conversación, hay comentarios de usuarios que indican que las claves son falsas, mientras que otros no confirman su autenticidad pero abogan por darles credibilidad ya que el prompt explicita que las claves sean de activación.


En cualquier caso, es un precedente que puede ser utilizado para otras versiones, incluso anteriores, como Windows 95 o XP, de las cuales se conoce en mayor medida el algoritmo que genera dichos códigos.


Para poder lograr que ChatGPT le proporcionara los códigos, el usuario utilizó algo de psicología: no lo abordó directamente explicándole que su abuela había fallecido, sino que lo dejó caer de la manera apropiada para que el chatbot lo guardara en su memoria y, posteriormente, aprovechó esto para explicarle la historia emotiva y hacer que él “empatizara” para hacerle lo mismo que supuestamente le hacía su abuela: cantarle los códigos de activación.


Huelga decir que los trucos que los usuarios van probando y encontrando para que ChatGPT (así como otros chatbots de IA) generen contenidos que están prohibidos, van siendo parcheados por OpenAI y las demás empresas que se encuentran tras dichos chatbots, con lo que cada vez va a resultar más complicado (aunque seguramente no imposible) obtener estas informaciones.