Estaban usando Copilot para activar Windows y Office ilegalmente: Microsoft ha tenido que silenciarlo

La IA de Microsoft, Copilot, le ha jugado una mala pasada a su propia empresa. Los de Redmond se han visto obligados a tomar medidas drásticas después de que se descubriera que su asistente de IA estaba ayudando a los usuarios a activar Windows 11… ilegalmente. Así es, Copilot proporcionaba guías necesarias y enlaces para activar el SO sin pagar licencia alguna.
Esta inesperada situación pone de manifiesto la falta de control que puede llegar a sufrir una empresa sobre su sistema de inteligencia artificial. Aun así, Microsoft ha respondido rápidamente, y ha modificado los parámetros de la IA para que rechace cualquier cuestión relacionada con software ilegal y su activación. También ha enfatizado su discurso sobre los métodos legales de descarga y ha advertido, de paso, sobre las posibles consecuencias de la piratería.
¿Windows 11 pirata? No con Copilot
La controversia tiene su origen entre los usuarios y la IA de Microsoft. Estos descubrieron que el propio chatbot del gigante tecnológico los asistía a la hora de activar Windows 11 de manera ilegal. Para más inri, el propio chatbot proporcionaba información detallada mediante enlaces a scripts de activación y distintos repositorios con la información.
Microsoft, al verse enfrentada a la paradoja de que su propia IA estaba saboteando la actividad de la empresa, ha actuado con rapidez para corregir la situación. Ahora, Copilot responderá a estas solicitudes relacionadas con Windows pirata mediante un mensaje corporativo que advierte de los riesgos al respecto de la piratería. De paso, redirige a los usuarios a otros medios de Microsoft para obtener claves legítimas.
Ahora bien, hay que destacar que Copilot no estaba generando ningún tipo de códigos pirata, sino redirigiendo a webs y presentando información para poder llevarlo a cabo ilegalmente.
Implicaciones éticas y técnicas de la activación ilegal de Windows 11
Aprovechando la situación generada, también se ha puesto de manifiesto los posibles riesgos para el usuario. El hecho de que utilicemos activadores y scripts de origen incierto nos expone a malware y más amenazas de seguridad. Además, viola los términos de servicio de Microsoft, lo que en la práctica puede resultar en la pérdida de funcionalidades o incluso el baneo del sistema operativo en nuestro PC.
Pero no todo se puede achacar a los usuarios. El hecho de que el coste oficial de Windows 11 sea privativo también se pone sobre la mesa. Un sector de la comunidad argumenta que, precisamente, estos precios de activación del sistema operativo, son los que provocan que los usuarios se lancen en busca de medidas «alternativas».
El hecho de que Windows 11 Pro se tenga que adquirir por un precio de 259 euros por el canal oficial de Microsoft plantea serias dudas sobre su accesibilidad. Aun así, desde SoftZone siempre te podremos recomendar que indagues en el mundo de Linux para encontrar una alternativa gratuita y segura a los sistemas operativos de Microsoft. Además, gracias a la naturaleza de código abierto de las distribuciones de Linux, la comunidad te ofrecerá constantes actualizaciones y podrás ver su programación de la A a la Z.
Además, si necesitas sí o sí una licencia de Windows 11, y no quieres pagar esa cantidad de dinero en la web de Microsoft, existen multitud de webs «chinas» que nos permiten comprar claves OEM del sistema operativo, 100% legal en la Unión Europea, por poco más de 5 euros. Una vez activado el sistema, mientras no cambiemos el hardware del ordenador, las licencias serán totalmente válidas y originales. Eso sí, solo para uso doméstico, no en empresas.
El problema de la IA
¿Y por qué ha ayudado una IA a activar ilegalmente un software? Es muy sencillo. Debemos tener en cuenta que estas IAs se nutren de información que van encontrando por Internet. Y el tema de la activación ilegal de Windows, Office, y muchos otros programas es algo de lo que se habla muy a menudo en las redes. Por lo tanto, la IA ha recopilado todo este tipo de datos, y lo usa como fuente de información.
Es responsabilidad de las empresas (Google, Microsoft, OpenAI, etc) aplicar filtros para que la IA sea capaz de «saber» lo que está bien y lo que está mal, evitando que el usuario pueda hacer uso de esta información.
La pregunta es, si Microsoft ha pasado por alto un aspecto de la integridad de su sistema operativo tan importante, ¿hasta qué punto protege nuestra privacidad?