La estrategia de OpenAI para hacer que DeepSeek parezca el villano: en la guerra fría de la inteligencia artificial
La estrategia de OpenAI para hacer que DeepSeek parezca el villano: en la guerra fría de la inteligencia artificial.

La estrategia de OpenAI para hacer que DeepSeek parezca el villano: en la guerra fría de la inteligencia artificial

Un análisis abordó la acusación de la firma responsable de ChatGPT, que dice estar investigando indicios de que la empresa china se aprovechó de sus modelos.


La empresa con sede en China especializada en inteligencia artificial (IA), DeepSeek, se ha llevado la atención de especialistas occidentales, ejecutivos de Silicon Valley, autoridades de Washington e inversores de todo el mundo.

El ascenso de la firma liderada por el ingeniero Liang Wenfeng se debe, en gran parte, a que casi han igualado a sus rivales de Estados Unidos, a pesar de que utilizan chips menos avanzados y considerablemente más económicos.

En cierto sentido, aquello ha puesto en jaque a empresas como OpenAI y otras compañías occidentales dedicadas a esta tecnología.

Principalmente, porque las operaciones de DeepSeek requieren de una pequeña fracción de la potencia informática que estas últimas necesitan.

La redactora jefa de CNN Business, Allison Morrow, planteó en un análisis que la empresa china ha obligado a sus competidores —y a sus inversores— a cuestionar la suposición de que necesitan millones de dólares más para asegurar de manera efectiva la energía suficiente para impulsar sus avances.

Es por esto, sostuvo, que los líderes tecnológicos estadounidenses “están tratando de cambiar la narrativa para hacer que DeepSeek parezca el villano”, en medio de lo que algunos han calificado como la “guerra fría” de la IA.

La estrategia de OpenAI para hacer que DeepSeek parezca el villano: en la guerra fría de la inteligencia artificial
La estrategia de OpenAI para hacer que DeepSeek parezca el villano: en la guerra fría de la inteligencia artificial .

Cómo es la estrategia de OpenAI para hacer que DeepSeek parezca “el villano”, según el análisis

El pasado martes 28 de enero, medios como Bloomberg y el Financial Times reportaron que OpenAI y Microsoft —su mayor inversor— están investigando pruebas de que DeepSeek utilizó la propiedad intelectual de OpenAI para crear su competidor.

Aquello podría significar una violación de sus términos de servicio.

Un portavoz de OpenAI que conversó con CNN el miércoles 29 dijo que la firma “está al tanto y revisando indicios de que DeepSeek puede haber destilado inapropiadamente nuestros modelos”.

Agregó que la compañía “compartirá información a medida que sepamos más”.

Al hablar de “destilar” se refirió a una maniobra que utilizan los desarrolladores para entrenar modelos de IA, la cual es conocida como “destilación del conocimiento”.

Un artículo de IBM la describe como “una técnica de aprendizaje automático que tiene como objetivo transferir los aprendizajes de un gran modelo previamente capacitado, el ‘modelo de profesor’, a un ‘modelo de estudiante’ más pequeño”.

La destilación del conocimiento “se emplea en el aprendizaje profundo como una forma de compresión de modelos y transferencia de conocimiento, particularmente para redes neuronales profundas masivas”.

Morrow precisó en su análisis que “‘destilar’ no es exactamente robar, pero es una especie de maniobra de imitación”.

En este sentido, planteó: “OpenAI, una startup que se construyó sobre una base de datos que extrajo de Internet sin permiso, está señalando a otra startup que supuestamente está haciendo... más o menos lo mismo”.

Recordó que la firma de IA se enfrenta actualmente a distintos litigios con creadores de contenidos. Entre ellos, el New York Times.

Desde OpenAI no niegan haber usado el material, pero sí han argumentado que no hicieron una infracción de derechos de autor y afirmado que el contenido cae en una doctrina legal conocida como “uso justo”, según rescata CNN.

Frente a estas acusaciones, algunos especialistas han asegurado que la destilación es una práctica común en el campo de la IA.

El profesor visitante de la Universidad de Cornell, Lutz Finger, enfatizó al citado medio: “Me sorprendería que DeepSeek no la hubiera usado”.

“Técnicamente, es sencillo de hacer. Y si se hace bien, es fácil de disfrazar y evitar la detección, por lo que me sorprendería igualmente si alguna vez obtenemos pruebas de tales tácticas”.

El pasado 28 de enero, el capitalista de riesgo tecnológico, Bill Gurley, escribió en X (ex Twitter) que “el algoritmo central que todos usan fue desarrollado en DeepMind (la firma de IA de Google)”.

“Nadie lo discute. La gran mayoría de los conocimientos y avances del LLM son ‘prestados’”, agregó.

Por su parte, el consultor de IA y exdirector de lanzamiento al mercado de OpenAI, Zack Kass, dijo a CNN: “La destilación es una práctica común en IA, pero normalmente se realiza dentro de la misma organización que posee ambos modelos”.

“Si DeepSeek entrenó su modelo consultando ChatGPT a escala y usando las respuestas para enseñar a su propio modelo, plantea preocupaciones legítimas sobre si eso constituye un uso no autorizado de la API de OpenAI”.

Bajo esta línea, sentenció: “Independientemente de los detalles aquí, estamos entrando en una fase en la que la comunidad de IA tendrá que definir normas más claras sobre lo que constituye un uso legítimo frente a la replicación no autorizada”.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.