Lanza OpenAI GPT-4o Mini para impulsar accesibilidad y aumentar beneficios

2024 es un año de búsqueda de beneficios de las inversiones en Inteligencia Artificial, por lo que crear estrategias de retribución más factibles son necesarias para las gigantes tecnológicas.
18 Julio, 2024 Actualizado el 18 de Julio, a las 19:39
Este tipo de lanzamientos requieren menos recursos financieros y representan una opción de exploración de alternativas más económicas para las empresas. (Imagen: iStock)
Este tipo de lanzamientos requieren menos recursos financieros y representan una opción de exploración de alternativas más económicas para las empresas. (Imagen: iStock)
Arena Pública

La euforia por la Inteligencia Artificial (IA) comprometió grandes inversiones; ahora es momento de esperar ganancias. OpenAI, empresa desarrolladora de ChatGPT, podría estar buscando mejores retribuciones económicas tras el lanzamiento de GPT-4o Mini, una nueva versión más económica de su modelo de lenguaje GPT-4o.

Aunque este modelo promete ser un 60% más barato que su versión original, no solo implica una reducción de costos para los usuarios, sino también para la empresa por la disminución de requisitos computacionales de gran complejidad.

Los modelos de lenguaje pequeños, con solo unos pocos miles de millones de parámetros, son alternativas más económicas, energéticamente eficientes y personalizables. Requieren menos energía para su entrenamiento y ejecución, además de ofrecer mayor protección de datos confidenciales, tal como lo expuso el periódico estadounidense, Financial Times.

Además, se acercan a empresas que dudan de la adopción de IA preocupadas por los costos y el poder de cómputo necesarios para ejecutar modelos de lenguaje grandes, como los que sustentan chatbots populares como ChatGPT, que tienen millones de parámetros.

Los parámetros indican la cantidad de instrucciones complejas que un modelo puede procesar, y cuanto mayor sea el número de parámetros, mejor será el rendimiento del software de IA, además de que sus tareas pueden ser más complejas y matizadas. Se estima que el último modelo de OpenAI, GPT-4o tiene más de 1 billón de parámetros, por ejemplo.

Sin embargo, a pesar de ser un modelo más pequeño, GPT-4o Mini alcanza un 82% en MMLU (Massive Multitask Language Understanding), un benchmark de evaluación utilizado para medir la capacidad de un modelo de lenguaje en una variedad de tareas y dominios. Además, promete una baja latencia al  permitir el desarrollo de tareas que manejen grandes volúmenes de contexto, o respuestas rápidas en tiempo real. El modelo está entrenado con información actualizada hasta octubre de 2023.

Introducing GPT-4o mini! It’s our most intelligent and affordable small model, available today in the API. GPT-4o mini is significantly smarter and cheaper than GPT-3.5 Turbo.https://t.co/sqJsFEYHWq pic.twitter.com/g6jMttp1mF

— OpenAI Developers (@OpenAIDevs) July 18, 2024

Su costo es de 15 centavos por millón de tokens de entrada y 60 centavos por millón de tokens de salida, lo que lo hace considerablemente más económico que los modelos anteriores y alrededor de 60% más barato que GPT-3.5 Turbo.

Como la misma empresa lo expuso, estas capacidades responden a diferentes necesidades de las empresas, lo que permitirá una mayor accesibilidad de la IA. Esto también será beneficioso para OpenAI en medio de un contexto caracterizado por la competencia.

OpenAI no es la primera empresa en lanzar un modelo de IA más pequeño. En abril de este año, Meta presentó la versión pequeña de Llama 3, su chatbot gratuito más avanzado hasta la fecha. El  modelo cuenta con 8,000 millones de parámetros, lo que refleja su portabilidad y complejidad.

Por su parte, Microsoft, lanzó durante el mismo mes a Phi-3 Mini, el primero de tres modelos pequeños que la compañía planea introducir. El desarrollo cuenta con 3.8 mil millones de parámetros y se entrena con un conjunto de datos más reducido en comparación con modelos de lenguaje grandes como GPT-4.

Microsoft también tiene previsto lanzar Phi-3 Small, con 7 mil millones de parámetros, y Phi-3 Medium, con 14 mil millones de parámetros.

Este tipo de lanzamientos requieren menos recursos financieros y representan una opción de exploración de alternativas más económicas para las empresas. Estas medidas pueden resultar necesarias debido a que 2024 es un año en el que las gigantes tecnológicas esperan ganancias después de enormes inversiones.

El entusiasmo por la IA, impulsado en gran medida por los chatbots y desarrollos de grandes modelos de lenguaje (LLM), ha alcanzado un punto álgido, con inversores y ejecutivos estableciendo expectativas muy altas para la tecnología, por lo que 2024 se perfila como un año de “ajuste de cuentas para la IA”, donde los líderes empresariales se concentrarán en evaluar lo que la tecnología realmente puede ofrecer en el presente, tal como lo informa el medio de comunicación especializado The Verge.

La accesibilidad y la personalización prometen convertirse en un arma más para atraer a más clientes con inversiones más pequeñas en comparación con los grandes modelos de lenguaje tradicionales.