Microsoft advierte que hackers chinos, rusos e iraníes utilizan el Chat GPT para ataques «sofisticados»
Según un informe reciente de la empresa tecnológica Microsoft, los hackers respaldados por los gobiernos de China, Rusia, Irán y Corea del Norte han estado utilizando sus herramientas de inteligencia artificial (IA) para avanzar en sus esfuerzos de ciberespionaje.
Las herramientas, provistas por OpenAI, cuentan con el respaldo de Microsoft y están diseñadas para aprovechar la tecnología de IA para diversas aplicaciones. Estas incluyen procesamiento de lenguaje natural y mecanismos de aprendizaje automático destinados a ayudar a diferentes industrias a simplificar flujos de trabajo y mejorar la experiencia del usuario.
El anuncio, que se hizo público el 14 de febrero, está arrojando luz sobre los medios sofisticados a través de los cuales estas entidades patrocinadas por estados están avanzando y perfeccionando sus habilidades de hackeo.
El arsenal de un hacker
El informe de Microsoft (MSFT.O) describe la detección de actividades de grupos de hackers afiliados a entidades como la inteligencia militar rusa, la Guardia Revolucionaria de Irán y los regímenes de China y Corea del Norte. Estos grupos han estado experimentando con modelos de lenguaje como ChatGPT e intérpretes de código, señala el informe.
Tom Burt, vicepresidente de Seguridad del Cliente de Microsoft, enfatizó la postura de la compañía contra el uso indebido de la tecnología de IA con fines no éticos. Señaló que dicha tecnología se ha convertido evidentemente en una herramienta en los arsenales de los hackers que buscan «sofisticados sus métodos» y engañar a sus objetivos de manera más efectiva.
«Independientemente de si hay alguna violación de la ley o de los términos del servicio, simplemente no queremos que esos actores que hemos identificado, a los que rastreamos y sabemos que son actores de amenazas de varios tipos, tengan acceso a esta tecnología», dijo Burt a Reuters en una entrevista.
En una medida decisiva, Microsoft también anunció la prohibición integral del uso de sus productos de IA por parte de grupos de hackers patrocinados por estados, y subrayó su compromiso de «prevenir la explotación» de sus herramientas por parte de entidades extranjeras.
Los altos funcionarios de ciberseguridad en Occidente llevan tiempo advirtiendo sobre el posible uso indebido de la IA por parte de actores maliciosos. «Este es uno de los primeros, si no el primer caso, de una empresa de IA que sale y discute públicamente cómo los actores de amenazas cibernéticas utilizan las tecnologías de IA», dijo Bob Rotsted, principal de inteligencia de amenazas cibernéticas en OpenAI.
Mientras tanto, la respuesta de las naciones acusadas fue variada. Mientras que los funcionarios rusos, norcoreanos e iraníes no han comentado las acusaciones hasta ahora, un portavoz de la embajada de China en Estados Unidos, Liu Pengyu, rebatió las alegaciones con una declaración oponiéndose a “difamaciones y acusaciones infundadas contra China”.
En cambio, Liu abogó por un despliegue «seguro, confiable y controlable» de la tecnología de IA que tenga como objetivo «mejorar el bienestar común de toda la humanidad».
Implicaciones éticas y ambientales
El incidente marca un desarrollo significativo en el discurso en curso sobre las implicaciones de seguridad de las tecnologías de IA de rápida evolución. Estas preocupaciones incluyen el potencial de uso indebido para difundir desinformación, violaciones de privacidad, robo de propiedad intelectual y manipulación de la opinión pública.
Además, existen preocupaciones con respecto a la rendición de cuentas, el uso ético y los desafíos en torno a la regulación de dichas herramientas sin sofocar la innovación o la libertad de expresión.
También existen preocupaciones ambientales asociadas con el crecimiento de la IA debido a sus extensas necesidades de hardware y recursos. Estas tecnologías, incluidos los modelos de lenguaje, contribuyen a las emisiones de carbono que superan a la industria de la aviación. Esto es impulsado por la demanda de conjuntos de datos y modelos cada vez mayores.
Según un estudio de Data Center Frontier, un solo centro de datos de tamaño mediano puede utilizar hasta 360.000 galones de agua por día con fines de refrigeración. Sin embargo, el impacto ambiental total de las herramientas de IA sigue siendo incierto, ya que los datos públicos sobre la escala de estos recursos aún son escasos.
Manteniendo el rumbo
Si bien Microsoft y OpenAI caracterizaron la explotación de las herramientas de IA por parte de los hackers como «incipiente» e «incremental», las implicaciones de este desarrollo tienen un alcance muy amplio. El hecho de que estos grupos respaldados por estados estén explorando e integrando la IA en su conjunto de herramientas de espionaje sin lograr avances significativos, como señaló Burt, no disminuye su amenaza potencial.
«Realmente los vimos usar esta tecnología como cualquier otro usuario», dijo Burt, y agregó que comprender «de manera matizada» cómo se están incorporando estas tecnologías en estrategias de hackeo más amplias debería ser una prioridad.
Los expertos también señalan que la revelación de Microsoft debería servir como una llamada de atención para la comunidad global sobre la naturaleza de doble uso de las tecnologías de IA.
«Estos riesgos son reales y están aquí ahora, no en un futuro de ciencia ficción», encontró un estudio del Instituto Oxford de Internet. “La IA ya está reforzando y exacerbando muchos de los desafíos que la sociedad ya enfrenta, como sesgos, discriminación y desinformación”.
A medida que el panorama digital continúa evolucionando, el incidente reafirma la importancia de la vigilancia, las pautas éticas y las estrategias integrales para garantizar que los beneficios de la IA se aprovechen de manera responsable.