Modelo de código aberto da OpenAI: gpt-oss no Azure e Windows
A OpenAI lançou recentemente os modelos gpt-oss, marcando sua primeira liberação com pesos abertos desde o GPT-2. Isso significa que desenvolvedores e empresas podem agora executar, adaptar e implantar modelos da OpenAI com mais liberdade do que nunca. Com os novos modelos, como o gpt-oss-120b, é possível realizar operações em uma única GPU voltada para empresas, enquanto o gpt-oss-20b pode ser executado localmente.
Neste novo cenário em que a inteligência artificial (IA) se torna central na tecnologia, é necessário dispor de ferramentas que sejam abertas, adaptáveis e prontas para serem utilizadas em diversas plataformas — desde a nuvem até dispositivos locais. A Microsoft está desenvolvendo uma infraestrutura de aplicativos de IA que permite a qualquer desenvolvedor não apenas utilizar a IA, mas também criar suas próprias soluções.
A plataforma Azure AI Foundry oferece um espaço unificado para construir, ajustar e implantar agentes inteligentes com segurança. O Foundry Local facilita a utilização de modelos de código aberto em dispositivos locais, permitindo inferência flexível em bilhões de equipamentos. O Windows AI Foundry integra esses recursos diretamente no Windows 11, possibilitando um ciclo de desenvolvimento seguro e de baixa latência.
Os modelos gpt-oss são projetados para enfrentar desafios complexos e são eficientes, permitindo que sejam usados em cenários práticos tanto na nuvem quanto localmente, sem perder a qualidade. A abertura dos pesos desses modelos facilita o ajuste fino, o que é essencial para adaptar a IA a necessidades específicas, como criar copilotos para áreas de atuação específicas ou otimizar para uso offline.
Os modelos abertos estão se tornando cada vez mais comuns e, com o Azure AI Foundry, os desenvolvedores têm a infraestrutura necessária para acompanhar essa evolução. Entre os benefícios proporcionados, destacam-se:
– A possibilidade de ajustar modelos utilizando métodos eficientes e personalizados, integrando dados próprios e disponibilizando novas versões rapidamente.
– A capacidade de modificar ou reduzir tamanhos de modelos para atender a restrições de memória de dispositivos locais.
– O acesso total aos pesos dos modelos, que permite análises de segurança e personalização detalhada.
Atualmente, os modelos gpt-oss-120b e gpt-oss-20b estão disponíveis na plataforma Azure AI Foundry, com o gpt-oss-20b também sendo acessível através do Windows AI Foundry e futuramente pelo macOS. Esses modelos oferecem um novo nível de controle em áreas como soberania, desempenho e portabilidade.
Antes de implementar esses modelos, é essencial entender suas características. O modelo gpt-oss-120b, por exemplo, é adequado para tarefas complexas, como resolução de equações, programação e perguntas específicas de áreas. Já o gpt-oss-20b é otimizado para tarefas práticas, como execução de códigos e uso de ferramentas, funcionando bem em uma variedade de hardware.
A Azure AI Foundry é, portanto, mais do que um catálogo de modelos; é uma plataforma integrada que permite aos desenvolvedores avaliar, ajustar e colocar modelos em produção de forma segura e confiável. Com mais de 11.000 modelos disponíveis, os usuários podem facilmente implantar e utilizar os gpt-oss na nuvem ou em dispositivos locais.
Essa nova abordagem permite que as organizações desenvolvam soluções que antes só eram possíveis em equipamentos locais. Com o Foundry Local, é viável otimizar o desempenho e a segurança, mantendo o controle sobre os dados e aproveitando o que há de mais avançado em modelos de IA.
A liberação dos gpt-oss e sua integração nas plataformas Azure e Windows representam um passo significativo em direção a um futuro em que a IA é omnipresente. A Microsoft busca democratizar o acesso à IA, fornecendo uma variedade de modelos que atendem às diferentes necessidades dos clientes.
Para quem deseja começar a utilizar os modelos gpt-oss, é possível implantar no Azure com facilidade e, em breve, também na sua máquina Windows. Preços e disponibilidades podem variar, mas as opções estão se expandindo rapidamente para facilitar o uso de modelos de IA de alta performance em diversas aplicações.