Era um dos anúncios com mais rumores e esperados nos últimos dias e semanas. A OpenAI tornou-se a nova Microsoft, Apple ou Google, e é a empresa que dita o ritmo do setor da inteligência artificial e, por extensão, de grande parte do setor tecnológico. Os rumores apontavam fortemente para algum momento deste mês de agosto e, finalmente, ontem ao final da tarde aconteceu: o novo modelo de linguagem GPT-5 foi apresentado.

Mas, antes de passar ao que é e ao que faz, a pergunta de um milhão de dólares: como podemos aceder a ele? O modelo já começou a ser implementado, por isso será uma questão de horas, se ainda não o têm e podem utilizá-lo, ou, no máximo, dias para que possam desfrutar dele.

Chegará aos utilizadores gratuitos, embora com limitações de uso, e aos utilizadores pagos Plus e Team com certa folga nos limites de uso para permitir o seu uso como modelo de uso diário. Os perfis Enterprise e Edu terão acesso a ele em datas próximas, também com bastante folga, enquanto os utilizadores Pro terão acesso ilimitado a ele (pelo menos, por 200 dólares mensais).

Pesquisando na Internet, no Reddit, encontrei uma captura de ecrã feita por um utilizador desse fórum, cuja autenticidade não posso garantir, que indica que os utilizadores gratuitos podem enviar dez mensagens a cada cinco horas, enquanto os utilizadores Plus e Teams teriam até oitenta mensagens a cada três horas e duzentas mensagens Thinking por semana, embora a mudança automática de modelo executada pelo próprio ChatGPT não seja incluída nessa contagem, dando um pouco mais de margem para o seu uso.

No que diz respeito ao uso da voz, também não está claro, embora pareça que não haveria grandes restrições para os utilizadores pagos, mas sim para os gratuitos.

Saliento que não posso garantir esses limites, uma vez que se trata de uma captura de ecrã de um utilizador e, portanto, não de um documento oficial da OpenAI.

Um único modelo para dominar todos

Na verdade, o GPT-5 não é um único modelo, mas uma arquitetura unificada que combina um modelo rápido para consultas comuns, outro especializado em raciocínio profundo (o já mencionado GPT-5 Thinking) e um router, que decide em milissegundos qual deve ser usado de acordo com a complexidade da solicitação.

Quando o utilizador esgota os limites de utilização contratados, entra em ação um modelo mini, de menor tamanho, mas capaz de manter a conversa operacional. Todo o sistema recebe feedback com sinais reais — como as vezes que um utilizador muda de modelo ou avalia uma resposta —, com o objetivo de melhorar continuamente.

As principais melhorias que este modelo traz estão nas áreas de programação, escrita e assistência médica.

Em matéria de geração de código-fonte informático, a OpenAI destaca os seus avanços na geração de interfaces front-end complexas e na depuração de grandes repositórios: o sistema «compreende» melhor o espaço em branco, a tipografia e a disposição dos elementos, o que se traduz em protótipos mais polidos à primeira tentativa.

Passando para a redação de textos, o GPT-5 é capaz — sempre de acordo com a OpenAI — de converter ideias vagas em textos coerentes e com tom profissional, manter estruturas poéticas complexas e, acima de tudo, auxiliar em tarefas rotineiras como e-mails, relatórios ou memorandos internos, superando o desempenho e a criatividade dos modelos anteriores.

Finalmente, na área da saúde, o modelo elevou sua pontuação no HealthBench, um teste baseado em casos clínicos reais, e é capaz de detectar possíveis dúvidas do paciente e fazer perguntas esclarecedoras. No entanto, a OpenAI esclarece que isso não significa que ele substituirá o profissional médico.

Podemos encontrar uma descrição mais completa das capacidades do novo modelo GPT-5 no anúncio oficial da OpenAI.

Além disso, também foi reforçada a capacidade de coordenar tarefas de várias etapas e utilizar ferramentas externas, ou seja, as suas capacidades agênticas. Isto significa que o modelo não apenas produz texto ou código, mas também pode planear, executar e adaptar processos à medida que as condições mudam, algo especialmente relevante para fluxos de trabalho automatizados ou integrações com sistemas empresa.

Outra contribuição importante é o raciocínio multimodal, agora mais preciso na interpretação de gráficos, fotografias ou diagramas técnicos. Um responsável pela infraestrutura pode, por exemplo, obter em segundos um resumo de um slide com a topologia da rede ou fazer perguntas sobre a imagem de um rack de servidores.

A eficiência também melhora: o GPT-5 alcança um desempenho superior com entre 50% e 80% menos tokens gerados, ou seja, precisa de menos «unidades de texto» para chegar a uma resposta de qualidade semelhante ou melhor do que a dos modelos anteriores. Isto traduz-se em custos mais baixos em usos intensivos e em uma latência reduzida, fatores que impactam diretamente na experiência do utilizador e no dimensionamento da infraestrutura.

A Microsoft também já o integra nos seus produtos

A empresa de Redmond, estreita colaboradora e investidora da OpenAI, anunciou também a integração imediata do GPT-5 na sua carteira de produtos, que vai desde o Microsoft 365 Copilot até ao GitHub, passando pelo Azure AI Foundry.

As ferramentas da Microsoft tirarão partido da capacidade de «router de modelos» do novo GPT-5, com o resultado, segundo a empresa, de proporcionar equilíbrio entre velocidade e profundidade de resposta. Por exemplo, no Microsoft 365 Copilot, é possível compreender melhor contextos extensos — por exemplo, threads de e-mail ou documentos empresariais — e raciocinar sobre perguntas compostas sem que o utilizador tenha de mudar de aplicação.

A mesma tecnologia está disponível no Copilot Studio para criar agentes personalizados capazes de assumir processos de negócios com várias etapas. Assim, tarefas antes fragmentadas entre várias ferramentas podem ser resolvidas a partir de um único ponto de interação.

O Microsoft Copilot, disponível na web e em aplicações para Windows, macOS, Android e iOS, incorpora um modo inteligente baseado em GPT-5. Qualquer utilizador pode experimentá-lo gratuitamente para obter respostas mais elaboradas, redigir textos complexos ou gerar imagens a partir de descrições.

Por sua vez, os programadores já podem escolher o GPT-5 no GitHub Copilot e no Visual Studio Code, bem como no Azure AI Foundry. Nestas plataformas, o novo modelo promete completar blocos de código mais longos, orquestrar tarefas agênticas do início ao fim e simplificar a criação de agentes de IA sem sair do ambiente de programação.

A atualização está disponível a partir de hoje para clientes corporativos e utilizadores particulares. Quem tiver licenças do Microsoft 365 Copilot, planos pagos do GitHub Copilot ou acesso ao Azure AI Foundry poderá começar a trabalhar com o GPT-5 sem configurações adicionais, enquanto qualquer pessoa pode experimentar o modelo ou as aplicações móveis e de desktop do Copilot.

Isto mudará a forma como fazemos os prompts?

Uma questão que ninguém parece ter colocado em discussão é se o GPT-5, com um router que permite selecionar dinamicamente o modelo mais adequado para cada tarefa, mudará a forma como redigimos os prompts, as instruções que damos à inteligência artificial para que cumpra ordens.

Como a seleção do modelo é automática e o uso do GPT-5 não contabiliza — em princípio, e de acordo com as informações de que disponho — as mudanças automáticas de modelo para usar o de pensamento profundo, certamente surgirão em breve “truques” — que, por sua vez, serão limitados pela OpenAI — para ativar esse modo de forma sub-reptícia a partir do prompt. Isso poderá modificar, em maior ou menor grau, a forma como redigimos as instruções para obter os melhores resultados com o ChatGPT.

É de supor que ainda demoraremos a ver esse efeito, se é que ele ocorrerá, e certamente só será algum tempo depois que a implementação do novo modelo entre os utilizadores estiver concluída.