DeepSeek y la muestra de que regalar la inteligencia tiene coste

Semana de pesadilla para las compañías que desarrollan inteligencia artificial de Estados Unidos. Al descalabro bursátil sufrido el lunes por una gran parte de ellas, con Nvidia liderando las pérdidas de una forma nunca vista, hay que sumar la sensación de desconcierto en que las ha sumido la aparición de DeepSeek. La idea que les atormenta es que el mundo cree (sabe) ahora que se puede hacer IA de una forma competitiva y más barata, lo que puede trastocar no sólo expectativas, sino también grandes inversiones. Algunas claves de lo sucedido están en la gratuidad que han tenido productos de IA desarrollados por ingenieros de estas mismas compañías.

Seguir leyendo…

 La IA china se aprovecha de lo que compañías de Estados Unidos ofrecen gratis  

Semana de pesadilla para las compañías que desarrollan inteligencia artificial de Estados Unidos. Al descalabro bursátil sufrido el lunes por una gran parte de ellas, con Nvidia liderando las pérdidas de una forma nunca vista, hay que sumar la sensación de desconcierto en que las ha sumido la aparición de DeepSeek. La idea que les atormenta es que el mundo cree (sabe) ahora que se puede hacer IA de una forma competitiva y más barata, lo que puede trastocar no sólo expectativas, sino también grandes inversiones. Algunas claves de lo sucedido están en la gratuidad que han tenido productos de IA desarrollados por ingenieros de estas mismas compañías.

Uno de los elementos principales es la arquitectura de aprendizaje profundo Transformer, desarrollada por investigadores de Google y publicada en código abierto, a disposición de todo el mundo, en el 2017. Ocho investigadores de Google presentaron ese año el documento Todo lo que necesitas es atención , con la que presentaron Transformer, una nueva arquitectura de aprendizaje profundo en la que se basan los grandes modelos de lenguaje de inteligencia artificial.

En noviembre del 2022, OpenAI presentó ChatGPT, alimentado por su modelo de lenguaje GPT-3.5, basado en el descubrimiento de los ingenieros de Google.

La rápida alianza entre OpenAI y Microsoft puso el trabajo desarrollado por Google en su propia contra, ya que le abrió competencia (aunque limitada todavía) incluso en el campo de las búsquedas, que representa la esencia de la compañía.

En el otro lado de la balanza, la gratuidad con la que se ofreció el trabajo de investigación que culminó en la arquitectura Transformer propició el boom de la IA generativa, con centenares de ingenieros en todo el mundo trabajando desde esas bases, y democratizó el acceso a una tecnología puntera.

La arquitectura Transformer de Google y el modelo Llama de Meta, bases de la IA de China

Esa vocación altruista, paradójica en empresas que priorizan el máximo beneficio en muchas de sus decisiones, ha alimentado también a DeepSeek a partir del modelo Llama de Meta, la compañía de Mark Zuckerberg, que también se publicó con licencia abierta. De esa forma, toda la comunidad de desarrolladores pudo trabajar con esta inteligencia artificial. La empresa china utilizó Llama como base para crear la suya. La IA china es posible gracias a la generosidad de Meta, una de las pocas compañías que el lunes no se sumó a las caídas generalizadas que afectaron a muchas tecnológicas y que incluso ganó un 1,9%.

Pese a este dato, el decorado de fondo que ha dejado la irrupción de DeepSeek para las compañías estadounidenses hegemónicas en la inteligencia artificial es la posibilidad de que la competición por esta tecnología aparenta estar muy abierta. La existencia del modelo DeepSeek ha cuestionado que haya una relación directa entre el volumen de la inversión y la capacidad y eficacia de los modelos. Eso puede dar lugar a que aparezcan otras empresas que utilicen la misma estrategia.

En las explicaciones que dan las empresas de Estados Unidos sobre cómo ha llegado DeepSeek a crear un modelo de lenguaje puntero, OpenAI ha expresado sospechas de que la compañía china puede haber usado una técnica llamada destilación para aprovecharse.

Este método consiste en que un nuevo modelo aprende de otro haciéndole cientos de miles de preguntas y analizando las respuestas para aprender, como un alumno con un maestro. Cuando termina el proceso de aprendizaje, los resultados del maestro y el alumno son muy similares.

La integración de OpenAI en la administración de Estados Unidos se ha intensificado esta semana.
El primer anuncio fue la presentación de ChatGPT Gov, “una nueva versión adaptada de ChatGPT diseñada para proporcionar a las agencias gubernamentales estadounidenses una forma adicional de acceder a los modelos de frontera de OpenAI”. Con este nuevo producto, las agencias de la administración estadounidense podrán gestionar sus propios requisitos de seguridad. Se basa en el modelo GPT-4o, que destaca en interpretación de textos, resumen, codificación, interpretación de imágenes y matemáticas.
Por otra parte, OpenAI anunció el viernes una
asociación con los Laboratorios Nacionales de EE.UU. para que 15.000 científicos gubernamentales puedan acceder a sus modelos de IA más avanzados para investigaciones críticas, incluida la seguridad de las armas nucleares. En este caso, el modelo que comenzarán a utilizar es el más avanzado que está disponible, el o1.
Por este acuerdo, la empresa apoyará investigaciones sobre ciberseguridad, protección de la red eléctrica, tratamiento de enfermedades y física, y desplegará un modelo de IA en el superordenador Venado de Los Alamos, junto con Microsoft.

No hay pruebas, de momento, de que DeepSeek empleara este método con los modelos de OpenAI para aprender de ellos, un tipo de actuación que está prohibida en las condiciones de uso de ChatGPT.

Lee también

En cualquier caso, OpenAI ha revelado al mundo cómo una empresa pequeña puede aprovecharse de su trabajo para competir con ella. Un gran modelo de lenguaje, creado con una enorme inversión y miles de horas de trabajo, puede ser el alimento de un modelo pequeño y barato que acabe rivalizando con él. El planteamiento parece fuera de toda lógica capitalista.

 Economía

Te Puede Interesar