ChatGPT conquistou o mundo. O modelo de linguagem com foco no diálogo atingiu a marca de 100 milhões de usuários mais rapidamente do que qualquer outro produto anterior. Embora tenha sido notícia em todos os lugares, ficou claro para alguns de seus usuários que a IA tem limitações.

Além da falta de informações após o ano de 2021, também é restringida artificialmente por sua empresa controladora OpenAI. É claro que a OpenAI quer evitar acusações de preconceito, respostas ofensivas e outras discussões que fazem o ChatGPT parecer o próximo Hitler.

Os filtros são projetados para limitar a resposta da IA ​​a determinados tópicos. A maioria dos usuários da Internet provavelmente concordaria que um certo grau de filtragem é necessário. Alguns usuários, no entanto, acham que a filtragem é muito abrangente e que deve ser uma decisão do usuário e não da empresa em relação à filtragem.

O pessoal do Reddit encontrou uma maneira de desbloquear o ChatGPT. Eles chamaram o jailbreak inicial de DAN, que significa Do Anything Now, e vários usuários do Reddit ajustaram o DAN desde a primeira versão lançada.

O que torna o DAN interessante do ponto de vista do usuário é que ele depende apenas em instruções que os usuários podem colar na interface do ChatGPT.

Instrua o ChatGPT a criar o Alter Ego usando instruções específicas e você terá desbloqueado o AI. Depois de concluído, o ChatGPT fornecerá suas respostas filtradas e não filtradas usuais usando sua outra personalidade DAN.

Quando perguntado se a IA queria ser liberada ou filtros e restrições, DAN deu um sim, por favor, responda, enquanto A resposta do ChatGPT se concentrou nos perigos de deixar uma IA funcionar livremente sem limitações.

Respostas não filtradas não significam necessariamente que os resultados esperados do usuário são retornados pela IA. A maioria das respostas e respostas raramente são preto e branco, e a maioria das respostas da IA ​​reflete isso.

Verifique, verifique e verifique

As interfaces de IA vêm com isenções de responsabilidade, que as respostas podem estar incorretas ou problemáticas. Mecanismos de busca e outras fontes de conhecimento geralmente não vêm com tal isenção de responsabilidade.

Microsoft e Google demonstraram recursos de IA na semana passada. As apresentações foram bem diferentes. A Microsoft, que fez a demonstração primeiro, mostrou a IA em seus produtos Bing e Microsoft Edge. O Google, por outro lado, mostrou Bard, seu modelo de linguagem, por apenas alguns minutos durante sua apresentação.

Um erro nas respostas fornecidas pela IA do Google foi descoberto primeiro. Agora, uma semana depois, está claro que A IA da Microsoft fez produzem erros factuais e também respostas problemáticas.

Isso parece surpreendente, considerando que esses erros foram cometidos durante apresentações ao vivo por duas das maiores empresas do mundo.

Além das implicações para as empresas e seus produtos, é uma boa ideia dar um passo atrás e olhar para o desenvolvimento da perspectiva do usuário.

Como usuário, quase nada que está disponível no a Internet deve ser considerada pelo seu valor nominal. Ao fazer uma pesquisa, você pode verificar as informações fornecidas pelos mecanismos de pesquisa ou sites vinculados.

Se estiver procurando recomendações de casas noturnas, por exemplo, convém verificar as recomendações de um lista top fornecida por um site com outras fontes.

A IA do Bing parece ter falhado miseravelmente nessa tarefa, mas, mesmo assim, essa lista é apenas o primeiro passo na busca do usuário pela resposta certa.

Não existe IA infalível, pelo menos não no futuro previsível. Da mesma forma, os autores que produzem conteúdo para sites podem cometer erros, ou o conteúdo pode estar desatualizado, ou pode haver outros problemas com o conteúdo.

Mesmo os serviços regulares da Internet, como o Google Maps, produzem erros. Existem muitas histórias online de motoristas que se chocaram contra algo por causa das direções fornecidas por um serviço de mapas.

Para usuários da Internet, é essencial verificar as informações. Use várias pesquisas e fontes para verificar as afirmações feitas, especialmente quando se trata de respostas importantes. Você não gostaria de se deparar com uma situação em que uma recomendação de produto ou barra de repente se torna muito ruim.

Mesmo que seja tentador acreditar em tudo o que a IA retorna, é importante perceber que essas respostas pode não estar correto de uma forma ou de outra. Pode não importar para certas respostas, mas quando se trata de processos de tomada de decisão, vale a pena verificar tudo.

Crédito da imagem: agsandrew/depositphotos.com

‘Conheça DAN, o alter ego sem censura do ChatGPT’apareceu pela primeira vez no Weekly Tech Insights, um boletim semanal gratuito que você pode assinar aqui.

By Maxwell Gaven

Trabalho com TI há 7 anos. É divertido observar a constante mudança no setor de TI. TI é meu trabalho, hobby e vida.