A OpenAI está comprometida em tornar a inteligência o mais amplamente acessível possível. Hoje, estamos anunciando o GPT-4o mini, nosso modelo pequeno mais econômico. Esperamos que o GPT-4o mini expanda significativamente a gama de aplicativos criados com IA, tornando a inteligência muito mais acessível. O GPT-4o mini pontua 82% no MMLU e atualmente supera o GPT-4 1 em preferências de bate-papo no placar do LMSYS(abre em uma nova janela). Ele custa 15 centavos por milhão de tokens de entrada e 60 centavos por milhão de tokens de saída, uma ordem de magnitude mais acessível do que os modelos de fronteira anteriores e mais de 60% mais barato que o GPT-3.5 Turbo.
O GPT-4o mini permite uma ampla gama de tarefas com seu baixo custo e latência, como aplicativos que encadeiam ou paralelizam várias chamadas de modelo (por exemplo, chamando várias APIs), passam um grande volume de contexto para o modelo (por exemplo, base de código completa ou histórico de conversas) ou interagem com clientes por meio de respostas de texto rápidas e em tempo real (por exemplo, chatbots de suporte ao cliente).
Hoje, o GPT-4o mini suporta texto e visão na API, com suporte para entradas e saídas de texto, imagem, vídeo e áudio chegando no futuro. O modelo tem uma janela de contexto de 128K tokens, suporta até 16K tokens de saída por solicitação e tem conhecimento até outubro de 2023. Graças ao tokenizador aprimorado compartilhado com o GPT-4o, lidar com texto que não seja em inglês agora é ainda mais econômico.
Um pequeno modelo com inteligência textual superior e raciocínio multimodal
O GPT-4o mini supera o GPT-3.5 Turbo e outros modelos pequenos em benchmarks acadêmicos em inteligência textual e raciocínio multimodal, e suporta a mesma gama de idiomas que o GPT-4o. Ele também demonstra forte desempenho em chamadas de função, o que pode permitir que os desenvolvedores criem aplicativos que buscam dados ou realizam ações com sistemas externos, e melhoram o desempenho de longo contexto em comparação com o GPT-3.5 Turbo.
O GPT-4o mini foi avaliado em vários benchmarks importantes 2 .
Tarefas de raciocínio: o GPT-4o mini é melhor do que outros modelos pequenos em tarefas de raciocínio envolvendo texto e visão, pontuando 82,0% no MMLU, um benchmark de inteligência textual e raciocínio, em comparação com 77,9% do Gemini Flash e 73,8% do Claude Haiku.
Proficiência em matemática e codificação: o GPT-4o mini se destaca em raciocínio matemático e tarefas de codificação, superando modelos pequenos anteriores no mercado. No MGSM, medindo raciocínio matemático, o GPT-4o mini pontuou 87,0%, em comparação com 75,5% para o Gemini Flash e 71,7% para o Claude Haiku. O GPT-4o mini pontuou 87,2% no HumanEval, que mede o desempenho de codificação, em comparação com 71,5% para o Gemini Flash e 75,9% para o Claude Haiku.
Raciocínio multimodal: o GPT-4o mini também mostra um desempenho forte no MMMU, uma avaliação de raciocínio multimodal, pontuando 59,4% em comparação com 56,1% do Gemini Flash e 50,2% do Claude Haiku.
Como parte do nosso processo de desenvolvimento de modelo, trabalhamos com um punhado de parceiros confiáveis para entender melhor os casos de uso e as limitações do GPT-4o mini. Fizemos parcerias com empresas como a Ramp(abre em uma nova janela)e sobre-humano(abre em uma nova janela)que descobriram que o GPT-4o mini tem um desempenho significativamente melhor do que o GPT-3.5 Turbo para tarefas como extrair dados estruturados de arquivos de recibos ou gerar respostas de e-mail de alta qualidade quando fornecido com histórico de threads.
Medidas de segurança integradas
A segurança é incorporada em nossos modelos desde o início e reforçada em cada etapa do nosso processo de desenvolvimento. No pré-treinamento, filtramos(abre em uma nova janela)informações das quais não queremos que nossos modelos aprendam ou produzam, como discurso de ódio, conteúdo adulto, sites que agregam principalmente informações pessoais e spam. No pós-treinamento, alinhamos o comportamento do modelo às nossas políticas usando técnicas como aprendizado por reforço com feedback humano (RLHF) para melhorar a precisão e a confiabilidade das respostas dos modelos.
O GPT-4o mini tem as mesmas mitigações de segurança incorporadas ao GPT-4o , que avaliamos cuidadosamente usando avaliações automatizadas e humanas de acordo com nossa Estrutura de Preparação e em linha com nossos compromissos voluntários . Mais de 70 especialistas externos em áreas como psicologia social e desinformação testaram o GPT-4o para identificar riscos potenciais, que abordamos e planejamos compartilhar os detalhes no próximo cartão do sistema GPT-4o e no cartão de pontuação de Preparação. Insights dessas avaliações de especialistas ajudaram a melhorar a segurança do GPT-4o e do GPT-4o mini.
Com base nesses aprendizados, nossas equipes também trabalharam para melhorar a segurança do GPT-4o mini usando novas técnicas informadas por nossa pesquisa. O GPT-4o mini na API é o primeiro modelo a aplicar nossa hierarquia de instruções(abre em uma nova janela)método, que ajuda a melhorar a capacidade do modelo de resistir a jailbreaks, injeções de prompt e extrações de prompt do sistema. Isso torna as respostas do modelo mais confiáveis e ajuda a torná-lo mais seguro para uso em aplicativos em escala.
Continuaremos monitorando como o GPT-4o mini está sendo usado e melhoraremos a segurança do modelo à medida que identificarmos novos riscos.
Disponibilidade e preços
O GPT-4o mini agora está disponível como um modelo de texto e visão na API Assistants, API Chat Completions e API Batch. Os desenvolvedores pagam 15 centavos por 1M de tokens de entrada e 60 centavos por 1M de tokens de saída (aproximadamente o equivalente a 2500 páginas em um livro padrão). Planejamos lançar o ajuste fino para o GPT-4o mini nos próximos dias.
No ChatGPT, usuários Free, Plus e Team poderão acessar o GPT-4o mini a partir de hoje, no lugar do GPT-3.5. Usuários Enterprise também terão acesso a partir da semana que vem, em linha com nossa missão de tornar os benefícios da IA acessíveis a todos.
Qual é o próximo
Nos últimos anos, testemunhamos avanços notáveis na inteligência de IA combinados com reduções substanciais em custos. Por exemplo, o custo por token do GPT-4o mini caiu 99% desde text-davinci-003, um modelo menos capaz introduzido em 2022. Estamos comprometidos em continuar essa trajetória de redução de custos enquanto aprimoramos as capacidades do modelo.
Nós imaginamos um futuro onde os modelos se tornam perfeitamente integrados em todos os aplicativos e em todos os sites. O GPT-4o mini está abrindo caminho para que os desenvolvedores criem e dimensionem aplicativos de IA poderosos de forma mais eficiente e acessível. O futuro da IA está se tornando mais acessível, confiável e incorporado em nossas experiências digitais diárias, e estamos animados para continuar a liderar o caminho.