Hace un año, OpenAI lanzó una versión de GPT-3.5 de ChatGPT que prometió (y amenazó) con cambiar el mundo tal y como lo conocemos. Desde entonces, varias empresas han tratado de hacerle frente creando sus propias IA, Google, Microsoft, Apple y hasta el propio Elon Musk, uno de los fundadores de OpenAI pero que se bajó del barco antes de que ocurriera el milagro.
Ahora es el turno de Amazon, que avanza en su incursión en terreno de inteligencia artificial con la creación de un modelo de lenguaje de gran envergadura (LLM) denominado Olympus. Este proyecto, que busca competir con los modelos líderes de OpenAI y Alphabet, está siendo liderado por Rohit Prasad, el ex jefe de Alexa y actual científico jefe de inteligencia artificial general (AGI) en Amazon, según Reuters. Prasad ha integrado esfuerzos dentro de la empresa, uniendo a investigadores de Alexa y el equipo científico para trabajar en el entrenamiento de modelos con recursos dedicados.
Dos billones de parámetros
El modelo Olympus de Amazon tiene aproximadamente 2 billones de parámetros, lo que podría convertirlo en uno de los modelos más grandes en desarrollo. En comparación, se informa que el modelo GPT-4 de OpenAI tiene un billón de parámetros. Los detalles específicos del proyecto no son públicos y Amazon ha declinado comentar al respecto. Sin embargo, se espera que Olympus supere al modelo LLM actual de Amazon, Titan, y está previsto que se introduzca alrededor de diciembre.
Amazon ya ha entrenado modelos más pequeños como Titan y ha colaborado con startups de modelos de IA como Anthropic y AI21 Labs, ofreciéndolos a los usuarios de Amazon Web Services. La empresa cree que tener modelos propios podría hacer más atractivas sus ofertas en AWS, donde los clientes empresariales buscan acceder a modelos de alto rendimiento.
¿Qué son los LLM?
Los modelos de lenguaje grandes (LLMs) son la tecnología subyacente para las herramientas de IA que aprenden de enormes conjuntos de datos para generar respuestas similares a las humanas. El entrenamiento de modelos de IA más grandes es más costoso debido a la cantidad de poder computacional requerido. En una llamada de ganancias en abril, los ejecutivos de Amazon dijeron que la compañía aumentaría la inversión en LLMs y IA generativa, mientras que reduciría los gastos en cumplimiento y transporte en su negocio de ventas al por menor.