Prepare-se para explodir sua mente! O incrível GPT-4 está fazendo sucesso com sua janela de contexto expandida, capaz de lembrar impressionantes 50 páginas de conteúdo – cinco vezes mais que o GPT-4 original e oito vezes mais que o GPT-3 anterior. Essa informação contextual é o que a IA utiliza para gerar um novo texto. E com uma memória tão grande, o GPT-4 pode evitar as armadilhas de modelos menores que rapidamente esquecem detalhes cruciais, levando a respostas imprevisíveis e fora do tópico. É um desenvolvimento revolucionário que certamente terá um impacto significativo no futuro do texto gerado por IA.

Com uma memória expandida, espera-se que o GPT-4 demonstre habilidades de conversação aprimoradas, facilitando diálogos prolongados que duram vários horas ou dias. Como as instruções iniciais fornecidas ao modelo podem permanecer em sua memória por um longo período, é menos provável que ele descarrile ou exiba um comportamento errático.

Em palavras simples, é um modelo multimodal que pode processar tanto a imagem e entradas de texto e forjar saídas de texto. O GPT-4 pode alcançar desempenho semelhante ao humano em vários benchmarks profissionais e acadêmicos. Mas ainda é inferior aos humanos em cenários do mundo real. No entanto, a OpenAI se orgulha de que o GPT-4 superou seu antecessor, o GPT-3.5, com um aumento de 40% na precisão quando se trata de produzir respostas factuais em suas avaliações internas.

Os desenvolvedores agora podem se inscrever para utilizar o GPT-4 em seus aplicativos. Enquanto os assinantes pagos do ChatGPT Plus da OpenAI terão acesso exclusivo ao modelo. Além da geração de texto, o GPT-4 pode analisar imagens e fornecer descrições ou responder a perguntas relacionadas, demonstrando sua versatilidade em vários domínios.

Leia também Como criar seu próprio personagem animado por IA com voz – uma etapa-Guia passo a passo

BBCTÍndice

Principais diferenças entre o GPT-3 e o GPT-4

#1. Memória maior

O tamanho e a potência do GPT-4 superam o GPT-3 por uma margem significativa, com 170 trilhões de parâmetros em oposição aos 175 bilhões de parâmetros do GPT-3. Essa capacidade aprimorada permite que o GPT-4 lide com tarefas de processamento e geração de texto com maior precisão e fluidez.

Leia também como obter acesso ao GPT-4 agora mesmo!

#2. Multimodal-Aceita imagens e textos

Um avanço notável em relação ao seu predecessor, o GPT-4 é um modelo multimodal extenso que pode adquirir entradas de texto e imagem e induzir saídas de texto. Este recurso facilita o processamento de entradas gráficas. Isso inclui imagens de gráficos e planilhas, o que não era possível com o modelo anterior. Por outro lado, enquanto o GPT-3 tem a capacidade de processar entrada de texto simples e gerar texto em linguagem natural e saída de código, o GPT-4 ainda não é capaz de produzir mídia apenas a partir de entrada textual.

Leia também como Para usar o ChatGPT no seu Apple Watch

#3. Mais respostas factuais

Nas avaliações internas da OpenAI, o GPT-4 mostrou uma probabilidade 40% maior de gerar respostas factuais do que o GPT-3.5. Além disso, o GPT-4 é caracterizado como mais imaginativo e menos inclinado a fabricar informações em comparação com o GPT-3.

Leia também como criar seu próprio chatbot de IA com a API do ChatGPT

# 4. Expandindo os recursos de idioma com GPT-4

O inglês domina o campo de IA, incluindo dados, testes e trabalhos de pesquisa. No entanto, o poder de grandes modelos de linguagem se estende a outros idiomas e eles também devem ser acessíveis nesses idiomas. O GPT-4 está caminhando nessa direção ao provar sua capacidade de responder a milhares de perguntas de múltipla escolha com precisão em 26 idiomas, do italiano ao ucraniano e ao coreano. Embora sua proficiência seja mais forte em idiomas românicos e germânicos, ele funciona bem em diferentes famílias de idiomas.

Leia também: Como acessar o ChatGPT na barra de menus do Mac

#5. Capacidades do novo GPT-4 e’entradas visuais’

GPT-4 é um modelo multimodal que aceita entradas de imagem e texto e emite saídas de texto. Embora não possa produzir imagens, pode processar e responder às entradas visuais que recebe. Isso significa que ele pode entender o contexto fornecido na imagem e conectá-lo aos entendimentos sociais da linguagem. Annette Vee, professora da Universidade de Pittsburgh que pesquisa a relação entre computação e composição, assistiu a uma demonstração na qual o novo modelo foi instruído a determinar o que era hilário em uma imagem cômica. O ChatGPT não foi capaz de fazer isso.

De acordo com o OpenAI, as possíveis aplicações da capacidade do GPT-4 de analisar e entender imagens. Especificamente, destaca o valor dessa tecnologia para pessoas com deficiência visual ou cegas. Existe um aplicativo móvel chamado Be My Eyes. Ele ajuda os usuários a interpretar seus arredores, descrevendo os objetos ao seu redor. Ao incorporar o GPT-4 ao aplicativo, ele agora pode gerar descrições com o mesmo nível de contexto. E entender como um voluntário humano.

Além disso, na demonstração, um representante da OpenAI esboçou um site simples e alimentou o desenho para GPT-4. O GPT-4 foi capaz de analisar a imagem e escrever o código necessário para produzir um site semelhante ao esboço. De acordo com Jonathan May, professor associado de pesquisa da University of Southern California, o site resultante era “muito, muito simples”, mas funcionava de maneira excelente.

Leia também: use o Bing Chatbot com tecnologia de IA no The New Mecanismo de busca do Bing

Limitações do GPT-4

#1. It ”Halucinates”

A passagem destaca tanto as capacidades quanto as limitações do GPT-4, a versão mais recente do modelo de linguagem GPT. Embora o GPT-4 tenha recursos de ponta na interpretação e geração de texto e imagens, ele ainda possui algumas limitações. Uma das limitações mais significativas é sua tendência a “alucinar” fatos e cometer erros de raciocínio. Isso significa que o GPT-4 pode gerar saídas que não são totalmente precisas ou constantes.

No entanto, o GPT-4 fez progressos no benchmark TruthfulQA, que testa a capacidade do modelo de separar fato de ficção em um conjunto de declarações incorretas selecionadas adversamente. Embora o GPT-4 seja apenas ligeiramente melhor nessa tarefa do que seu predecessor GPT-3.5, ele mostra melhorias significativas após o pós-treinamento RLHF. No entanto, o exemplo dado mostra que o GPT-4 ainda pode perder detalhes sutis, destacando a necessidade contínua de cautela ao usar modelos de linguagem.

Leia também Como usar Bing AI com Siri no iPhone

#2. Falta conhecimento depois de setembro de 2021

Embora o GPT-4 seja um modelo de linguagem competente, ele tem algumas limitações. Especificamente, ele não tem conhecimento dos eventos ocorridos após setembro de 2021, quando termina a grande maioria de seus dados pré-treinamento. Isso significa que ele pode não ter informações atualizadas sobre eventos ou tendências atuais.

#3. Incapacidade de aprender com a experiência anterior

Além disso, o modelo não aprende com sua experiência, o que implica que ele pode cometer os mesmos erros muitas vezes. Às vezes, o GPT-4 pode cometer erros de raciocínio simples que não parecem corresponder à sua competência em muitos domínios. Além disso, pode ser excessivamente ingênuo ao aceitar declarações errôneas de um usuário.

Leia também como usar o Bing Chatbot com tecnologia de IA no novo mecanismo de pesquisa do Bing

#4. Mitigando riscos e garantindo a segurança com o GPT-4

Os desenvolvedores do GPT-4 têm trabalhado para tornar o modelo mais seguro e alinhado desde o início. Eles se envolveram com mais de 50 especialistas de diferentes áreas para testar e avaliar o comportamento do modelo em áreas de alto risco. Para reduzir as saídas prejudiciais, o GPT-4 inclui um sinal de recompensa de segurança adicional durante o treinamento, que ensina o modelo a recusar solicitações de conteúdo inseguro. Os desenvolvedores observaram melhorias significativas nas propriedades de segurança do modelo, mas ainda há risco de mau comportamento.

GPT-4 tem o potencial de afetar a sociedade tanto positiva quanto negativamente, e os desenvolvedores estão trabalhando com pesquisadores para avaliar as consequências potenciais. Em breve, eles transmitirão mais opiniões sobre os impactos sociais e econômicos do GPT-4 e de outros sistemas de IA.

Leia também: Como usar o ChatGPT com a Siri no iPhone

# 5. OpenAI Evals

A OpenAI criou o OpenAI Evals, uma estrutura de software para avaliação automatizada do desempenho do modelo de IA, de código aberto. É uma ferramenta que ajuda a avaliar modelos como o GPT-4 e seu desempenho em diversos benchmarks. Isso facilita a qualquer pessoa identificar e avaliar deficiências em seus modelos e também ajuda a orientar futuras melhorias.

O software é de código aberto, indicando que qualquer pessoa pode usá-lo e modificá-lo para implementar a lógica de avaliação personalizada. No entanto, os Evals também incluem modelos para tipos de avaliação comuns, como”avaliações com classificação de modelo”, que podem ser utilizados como ponto de partida para produzir avaliações exclusivas.

Leia também-ChatGPT, Google Bard, Microsoft Bing-Como eles são semelhantes, mas ainda diferentes

Como obter acesso ao GPT-4?

O recurso de entrada de texto do GPT-4 está disponível para usuários do ChatGPT Plus via ChatGPT. A OpenAI anunciou que os assinantes do ChatGPT Plus terão acesso ao GPT-4, mas haverá um limite de uso. O limite de uso exato será ajustado com base na demanda e no desempenho do sistema. No entanto, a OpenAI espera que inicialmente haja intensas restrições de capacidade, embora planeje otimizar e ampliar sua infraestrutura nos próximos meses.

Se houver alta demanda para o uso de GPT-4, a OpenAI pode introduzir um novo nível de assinatura para uso em maior volume. Além disso, eles esperam eventualmente oferecer alguma quantidade de consultas GPT-4 gratuitas para que os não assinantes também possam experimentá-lo. Se você deseja obter acesso ao GPT-4 agora mesmo! Confira nosso blog para obter mais assistência.

Leia também-Microsoft Bing AI-Powered Chatbot: tudo o que você precisa saber

By Maisy Hall

Eu trabalho como redator freelancer. Também sou vegana e ambientalista. Sempre que tenho tempo, concentro-me na meditação.