OpenAI ha lanzado GPT-4.5, su modelo de IA más grande hasta la fecha, conocido internamente como «Orion». Y, pese a ello, puede saber a poco frente a los avances de las últimas semanas en su competencia, como Deepseek, Claude o incluso Grok.
A pesar de su tamaño y mejoras en conocimiento y capacidad emocional, OpenAI lo considera un «modelo frontera», un término que aparecía en su paper original, aunque luego ha sido retirado: ¿Qué significa esto en concreto?
¿Es GPT-4.5 un salto adelante o una señal de estancamiento en la IA?
Disponible para suscriptores de ChatGPT Pro y desarrolladores de API, GPT-4.5 utiliza el mismo enfoque de escalado de datos y computación que sus predecesores. Sin embargo, su rendimiento en ciertos benchmarks queda por debajo de modelos de IA de razonamiento de otras empresas, lo que refuerza la idea de que la simple ampliación de datos y computación está alcanzando sus límites. OpenAI ha reconocido que su alto coste operativo podría afectar su disponibilidad en el futuro.
La inteligencia artificial ha vivido años de avances vertiginosos. Cada nuevo modelo de OpenAI parecía superar al anterior con mejoras evidentes en lenguaje, razonamiento y creatividad. Sin embargo, con GPT-4.5, la historia es más compleja. Aunque es el modelo más grande de OpenAI hasta ahora, sus resultados en algunos tests clave sugieren que el enfoque tradicional de entrenar modelos con más datos y más computación podría estar llegando a un límite.
Si en cada iteración anterior el aumento de tamaño garantizaba un salto en capacidades, GPT-4.5 plantea una pregunta incómoda: ¿hemos llegado a un punto donde el crecimiento de los modelos ya no se traduce en mejoras sustanciales?
GPT-4.5: Más grande, más costoso, ¿más inteligente?
GPT-4.5 ha sido recibido con entusiasmo, pero también con escepticismo. OpenAI lo describe como su modelo más avanzado, con mejor comprensión del mundo y una notable mejora en inteligencia emocional. Sin embargo, algunos de sus resultados sugieren que no es el mejor en todas las áreas.
Entre los puntos fuertes del modelo, destacan:
- Menos alucinaciones que versiones anteriores y modelos competidores.
- Mejor rendimiento en tareas creativas y de escritura.
- Un tono más cálido y natural en sus respuestas.
No obstante, también presenta importantes peros:
- No supera a los modelos de razonamiento más avanzados en benchmarks académicos.
- Su entrenamiento ha sido extremadamente costoso, y OpenAI duda sobre su sostenibilidad a largo plazo.
- Algunas funcionalidades clave de ChatGPT, como el modo de conversación en voz realista, aún no están disponibles en este modelo.
La batalla de ‘benchmarks’: ¿Dónde se sitúa realmente GPT-4.5?
Históricamente, los modelos de OpenAI han dominado los principales benchmarks de IA. Sin embargo, con GPT-4.5 la situación es diferente. En pruebas como SimpleQA (preguntas directas y objetivas), supera a GPT-4o y otros modelos de OpenAI. Pero cuando se enfrenta a modelos de razonamiento avanzados como Claude 3.7 Sonnet de Anthropic o DeepSeek R1, los resultados no son tan favorables.
En benchmarks de programación:
- En SWE-Bench Verified, que evalúa la resolución de problemas de código, GPT-4.5 tiene un desempeño similar al de GPT-4o, pero no alcanza a los modelos más avanzados.
- En SWE-Lancer, que mide la capacidad de crear funciones completas de software, supera a GPT-4o y otros modelos de OpenAI, pero sigue detrás de los líderes en la categoría.
En otras pruebas de razonamiento matemático y científico, como AIME y GPQA, GPT-4.5 se sitúa por debajo de modelos diseñados específicamente para estas tareas.
Estos resultados sugieren que el crecimiento en tamaño del modelo ya no garantiza mejoras en todas las áreas.
El futuro de la IA: ¿Más datos o mejor razonamiento?
Desde hace años, la estrategia predominante en IA ha sido la misma: más datos, más capacidad de cómputo, modelos más grandes. Pero OpenAI, al igual que el resto de la industria, se enfrenta ahora a una encrucijada.
El propio Ilya Sutskever, exjefe científico de OpenAI, advirtió en diciembre de 2024 que «hemos alcanzado el pico de datos» y que el pre-entrenamiento tradicional está llegando a su fin. Esto significa que simplemente alimentar más información a los modelos no es suficiente para mejorar su rendimiento.
La alternativa que exploran las grandes empresas de IA son los modelos de razonamiento, que emplean más tiempo de computación para «pensar» sobre los problemas antes de responder. Estos modelos, aunque más lentos, son más precisos y pueden superar muchas de las limitaciones de los sistemas basados solo en tamaño.
OpenAI ya ha adelantado que su próximo gran modelo, GPT-5, combinará su serie GPT con su línea de modelos de razonamiento «o». GPT-4.5, aunque no rompe récords, podría ser un paso intermedio hacia esta nueva generación.
Fuente de TenemosNoticias.com: www.eleconomista.es
Publicado el: 2025-02-28 12:33:00
En la sección: elEconomista tecnologia