DeepSeek enfrenta nuevas acusaciones por entrenar su modelo con datos de Gemini

El medio especializado TechCrunch, citando a Nathan Lambert (@natolambert en X) y a Sam Paech (@sam_paech en X), detalla las sospechas sobre cómo fue entrenado el modelo de razonamiento R1-0528 de DeepSeek.

Lambert y Paech publicaron en X, que observaron coincidencias importantes entre las salidas del modelo chino y las generadas por Gemini 2.5 Pro de Google.

¿Qué similitudes en el modelo de R1-0528 hacen sospechar un entrenamiento con Gemini?

El motivo por el cual se sospecha de un entrenamiento con datos de Gemini se relaciona con el lenguaje y las estructuras usadas por el modelo R1-0528. Sam Paech compartió en X que el modelo utiliza expresiones casi idénticas a las de Gemini, algo poco común en otros sistemas:.

«DeepSeek R1-0528 usa exactamente las mismas frases que Gemini 2.5 Pro. Casi ningún otro modelo hace esto. Implica fuertemente una fuente de entrenamiento compartida».

Sam Paech, desarrollador con sede en Melbourne

Por su parte, Nathan Lambert, investigador del instituto AI2, también comentó sobre la estrategia técnica que podría estar aplicando DeepSeek.

«Si yo fuera DeepSeek, sin duda generaría una gran cantidad de datos sintéticos a partir del mejor modelo disponible por API. Tienen pocas GPU y mucho dinero. En la práctica, eso les da más capacidad de cómputo».

Nathan Lambert, investigador en AI2.

Otro desarrollador, autor de la herramienta SpeechMap, señaló que las trazas generadas por R1-0528 —las secuencias de razonamiento que produce el modelo— “se leen como las de Gemini”. Esta observación ha reforzado las sospechas dentro de la comunidad de desarrolladores.

Por otra parte, hacia fines de 2024, OpenAI acusó a DeepSeek de entrenar su modelo V3 con datos generados por ChatGPT.

¿Qué evidencias vinculan a DeepSeek con el uso de modelos de OpenAI?

En enero de este año, el Financial Times informó que OpenAI había encontrado “algunas evidencias de distillation”, que es un método por el cual se entrenan modelos de lenguaje más pequeños, usando datos data generada por otras más grandes como ChatGPT.

El matutino señala que esta práctica es común en la industria de la IA, sin embargo, se vuelve una infracción si se usa para desarrollar un sistema competidor.

«El problema surge cuando se usa para crear un modelo propio con fines propios».

Persona cercana a OpenAI, citada por el Financial Times.

OpenAI y Microsoft bloquearon las cuentas que utilizaban la API de la plataforma de IA, que se cree estaban vinculadas a DeepSeek.

Según personas con conocimiento directo, la medida respondió a sospechas de un uso que violaba los términos de servicio, los cuales prohíben expresamente usar las salidas del modelo para desarrollar productos que compitan con los de OpenAI.

Síguenos en Google News
OSZAR »