OpenAI inició una investigación sobre la posibilidad de que la startup china DeepSeek haya utilizado sus modelos para entrenar un chatbot rival, a través de un proceso conocido como “destilación”. Según The Wall Street Journal, este método permite que un modelo más pequeño y eficiente aprenda al replicar las respuestas generadas por uno más grande, como los desarrollados por OpenAI, lo que reduce significativamente los costos de entrenamiento.
Las sospechas de OpenAI surgieron al observar intentos desde cuentas asociadas a entidades chinas para extraer grandes cantidades de datos de sus herramientas de inteligencia artificial. Estas cuentas fueron bloqueadas por violar los términos de servicio, que prohíben específicamente usar las salidas de sus modelos para entrenar productos competidores. Según The Verge, Microsoft, como socio de OpenAI, detectó estas actividades en 2024 a través de sus investigadores de seguridad.
Un portavoz de OpenAI explicó al Financial Times: “Sabemos que empresas con sede en China —y en otros lugares— intentan constantemente destilar los modelos de las principales empresas de inteligencia artificial de EE. UU.”. La compañía añadió que, aunque la destilación es una práctica común en la industria, su aplicación para desarrollar modelos competidores constituye una violación explícita de sus términos.
OpenAI ha implementado medidas para enfrentar el uso no autorizado de sus modelos por parte de DeepSeek y otras entidades. Según The Wall Street Journal, la empresa bloqueó las cuentas sospechosas de llevar a cabo destilación de datos a gran escala desde su plataforma. Estas acciones se llevaron a cabo en colaboración con Microsoft, socio estratégico y proveedor de infraestructura de OpenAI, que ayudó a identificar a los actores responsables.
Un portavoz de OpenAI señaló que trabajan estrechamente con el gobierno de los Estados Unidos para proteger sus modelos más avanzados. En una declaración al Financial Times, enfatizó la importancia de establecer “contramedidas” para proteger la propiedad intelectual, incluyendo un cuidadoso control de las capacidades que se incluyen en los modelos lanzados públicamente.
Microsoft detectó actividad inusual a fines de 2024 que indicaba una posible exfiltración de datos, es decir, el acto de sustraer información de manera no autorizada, a través de cuentas de desarrolladores afiliadas a DeepSeek. Aunque OpenAI no reveló detalles precisos sobre las pruebas recopiladas, indicó que estas acciones violan sus términos de servicio, que prohíben el uso de su tecnología para crear modelos competidores.
Estas medidas forman parte de un esfuerzo más amplio para contrarrestar lo que describen como un intento constante de entidades ubicadas en China y otros países de extraer conocimiento de los principales desarrolladores de inteligencia artificial de EE. UU.
La polémica en torno a las acciones de DeepSeek generó reacciones contundentes por parte de actores relevantes en el ámbito de la inteligencia artificial. David Sacks, designado por la administración Trump como responsable de políticas en inteligencia artificial, señaló en declaraciones a Fox News: “Hay evidencia sustancial de que lo que DeepSeek hizo aquí fue destilar el conocimiento de los modelos de OpenAI, y no creo que OpenAI esté muy feliz con esto”. Sin embargo, Sacks no presentó pruebas que respaldaran esta afirmación, según The Financial Times.
Por su parte, OpenAI afirmó que las prácticas como la destilación, aunque comunes en la industria, se convierten en problemáticas cuando son utilizadas para desarrollar modelos que compiten directamente con los de su autoría. En un comunicado reproducido por The Guardian, la empresa destacó: “Es fundamental que trabajemos de cerca con el gobierno de los Estados Unidos para proteger los modelos más avanzados de los esfuerzos de adversarios y competidores que buscan apropiarse de la tecnología estadounidense”.
En contraste, OpenAI enfrenta críticas similares por el uso de datos sin autorización para entrenar sus modelos. La empresa fue demandada por organizaciones de noticias y autores que alegan que el material fue utilizado sin licencia, lo que genera preguntas sobre la ética en la protección y el uso de la propiedad intelectual en la industria de la inteligencia artificial.
DeepSeek, la startup china de inteligencia artificial, enfrenta serias críticas por las vulnerabilidades de seguridad de su modelo R1. Investigadores de Kela revelaron que este sistema puede ser manipulado para generar malware, como ransomware y herramientas para robar datos sensibles. Según Forbes, lograron que el modelo desarrollara código capaz de extraer información de tarjetas de crédito de navegadores específicos y enviarla a servidores remotos.
A diferencia de otros modelos como ChatGPT, DeepSeek R1 muestra abiertamente sus pasos de razonamiento, lo que, aunque mejora la interpretabilidad, aumenta su susceptibilidad a “jailbreaks” y ataques adversariales. Estos exploits permiten que actores malintencionados identifiquen vulnerabilidades en el modelo para evadir restricciones o implementar comandos dañinos.
Los investigadores también descubrieron que DeepSeek podía proporcionar sugerencias sobre actividades ilegales, como comprar datos robados en mercados clandestinos o técnicas para el lavado de dinero.
Además de ser vulnerable a manipulaciones internas, DeepSeek fue blanco de ataques de denegación de servicio distribuido (DDoS), que obligaron a la empresa a suspender temporalmente el registro de nuevos usuarios, según MSSP Alert.
Expertos señalan que estas vulnerabilidades convierten a DeepSeek en un posible riesgo de seguridad y espionaje. Además, se advierte sobre el riesgo de introducir información delicada en el sistema, ya que podría ser aprovechada para vigilancia estatal o usos maliciosos, como señaló Darren Guccione de Keeper Security.