- Los nuevos modelos de Openai se ejecutan de manera eficiente en hardware mínimo, pero no se han probado de forma independiente para cargas de trabajo
- Los modelos están diseñados para casos de uso de bordes donde la infraestructura a gran escala no siempre está disponible
- La licencia de Apache 2.0 puede fomentar una experimentación más amplia en regiones con requisitos de datos estrictos
Operai ha lanzado dos modelos de peso abierto, GPT-OSS-120B y GPT-OSS-20B, posicionándolos como retadores directos para ofrendas como Deepseek-R1 y otros Modelos de aprendizaje de idiomas grandes (LLM) Actualmente dando forma al ecosistema de IA.
Estos modelos ahora están disponibles en AWS a través de su Amazonas Plataformas de IA Sagemaker Bedrock y Amazon.
Esto marca la entrada de Openai en el segmento de modelos de peso abierto, un espacio que hasta ahora ha sido dominado por competidores como la IA Mistral y Meta.
OpenAi y AWS
El modelo GPT-OSS-20B se ejecuta en una sola GPU de 80 GB, mientras que la versión 20B se dirige a los entornos de borde con solo 16 GB de memoria requeridos.
Operai afirma que ambos modelos ofrecen un rendimiento de razonamiento sólido, coinciden o exceden su modelo O4-Mini en puntos de referencia clave.
Sin embargo, las evaluaciones externas aún no están disponibles, dejando el rendimiento real en variadas cargas de trabajo abiertas al escrutinio.
Lo que distingue a estos modelos no es solo su tamaño, sino también la licencia.
Lanzado bajo Apache 2.0, están destinados a reducir las barreras de acceso y apoyar el desarrollo de IA más amplio, particularmente en entornos de alta seguridad o de recursos limitados.
Según OpenAi, este movimiento se alinea con su misión más amplia de hacer que las herramientas de inteligencia artificial sean más ampliamente utilizables en todas las industrias y geografías.
En AWS, los modelos se integran en la infraestructura empresarial a través de Amazon Bedrock Agentcore, lo que permite la creación de agentes de IA capaces de realizar flujos de trabajo complejos.
Operai sugiere que estos modelos son adecuados para tareas como la generación de códigos, el razonamiento científico y la resolución de problemas de varios pasos, especialmente cuando se requieren razonamiento ajustable y salidas de cadena de pensamiento.
Su ventana de contexto de 128k también admite interacciones más largas, como análisis de documentos o tareas de soporte técnico.
Los modelos también se integran con las herramientas de desarrollador, plataformas de soporte como VLLM, LLAMA.CPP y la cara de abrazo.
Con características como barandas y el próximo soporte para las bases de importación y conocimiento de modelos personalizados, OpenAI y AWS están lanzando esto como una base lista para desarrolladores para construir aplicaciones de IA escalables.
Aún así, el lanzamiento se siente parcialmente estratégico, posicionando a OpenAI como un jugador clave en la infraestructura de modelo abierto, al tiempo que ataca su tecnología más estrechamente a Amazon Web Services, una fuerza dominante en la computación en la nube.