Η OpenAI culpa a la startup china de inteligencia artificial búsqueda profunda por infracción de derechos de autor, alegando que utilizó sus propios modelos para entrenar su chatbot de IA
Desde la puesta en marcha de la inteligencia artificial (IA) china búsqueda profunda la sacudió Silicon Valley y Wall Street Con sus modelos rentables, la empresa ha sido acusada de robar datos mediante una práctica común en toda la industria.
Η OpenAI afirmó que tiene pruebas de que búsqueda profunda utilizó el método de "destilación" (destilación) de sus modelos GPT IA abierta, para entrenarlos Modelos V3 y R1 de código abierto en DeepSeek, a una fracción de lo que los gigantes tecnológicos occidentales gastan en sus propios modelos, según informó Financial Times El miércoles.
Aunque el destilación es una práctica común en la industria, h OpenAI sostiene que su uso para crear un modelo competitivo viola sus términos de uso.
El método de destilación es un medio para entrenar modelos más pequeños para imitar el comportamiento de modelos más grandes y sofisticados. Esta práctica es común entre muchas empresas que desean reducir el tamaño de sus modelos y al mismo tiempo ofrecer a sus usuarios un rendimiento similar al de los modelos más grandes.
Todo lo anterior, combinado con el hecho de que el entrenamiento de todos los modelos de IA conocidos suele basarse en una gran cantidad de datos de dudosa procedencia, ha llevado a algunos expertos a cuestionar la sinceridad de OpenAI en sus acusaciones de infracción de propiedad intelectual por parte de búsqueda profunda.
Se observa que el búsqueda profunda sorprendió a la industria con su lanzamiento modelo R1, que logró un rendimiento comparable al de los mejores modelos estadounidenses a pesar de su bajo costo de desarrollo. Las preocupaciones sobre una menor necesidad de comprar hardware costoso de IA contribuyeron a la Las acciones de Nvidia caen un 17%, aunque se recuperó parcialmente al día siguiente.
Según lo declarado por Dedo de Lutz, profesor titular de la Universidad de Cornell que ha trabajado en inteligencia artificial en empresas de tecnología como Google y LinkedIn;
Pero además de todo lo anterior, la cosa parece complicarse aún más en lo que respecta a DeepSeek, ya que según lo que dice el @Dorialexander, lo LLM en DeepSeek R1 puede haber entrenado originalmente en Hardware Nvidia H100, que es uno de los procesadores más potentes para entrenar modelos de IA.
Sin embargo, la ejecución del modelo se realiza utilizándolo. Ascender 910C de Huawei, porque el Chip Ascend de Huawei no son capaces de asumir la carga de entrenar modelos de Ai.
La razón por la que se usa Ascender 910C es que para ejecutar el modelo los requisitos de potencia de procesamiento son menores que para el entrenamiento. Sin embargo, este chico El chip es más eficiente y más económico. para satisfacer estas necesidades.
No te olvides de seguirlo xiaomi-miui.gr en noticias de Google para estar informado inmediatamente sobre todos nuestros nuevos artículos! También puede, si usa un lector de RSS, agregar nuestra página a su lista simplemente siguiendo este enlace >> https://xiaomi-miui.gr/feed/gn