Quer saber como o novo ChatGPT realmente ‘pensa’? Vai ficar querendo

O principal chamariz apresentado pela OpenAI para o o1 (apelidado de “Strawberry”) foi sua capacidade de “reflexão”. Você deve ter lido por aí variações como “pensar” e “raciocínio” em matérias sobre o novo modelo de inteligência artificial para o ChatGPT. Naturalmente, usuários ficaram curiosos. E a OpenAI não gostou disso.

O site Ars Technica apontou que a OpenAI tem ameaçado banir usuários que tentam fazer o ChatGPT revelar seus truques. De acordo com relatos publicados nas redes sociais, usuários têm recebido e-mails da startup alertando que suas mensagens para o ChatGPT tinham tentado “contornar salvaguardas”.

E as mensagens vão além: “Violações adicionais desta política podem resultar na perda de acesso ao GPT-4 com reflexão.”

Leia também:  Haddad reafirma compromisso com déficit zero e diz que vai rever receita de 2024 com o Carf

Um bom ChatGPT nunca revela seus truques (e ‘raciocínios’)

Os relatos variam sobre o que aciona as violações.

Alguns usuários disseram que usar o termo “reasoning trace” (algo como “linha de raciocínio”, em tradução livre) foi o que acionou alertas na OpenAI;

Outros dizem que até mesmo usar a palavra “raciocínio” sozinha foi suficiente para a empresa enquadrá-los por e-mail.

Usuários curiosos sobre linhas de raciocínio do ChatGPT têm recebido e-mails intimidadores da OpenAI (Imagem: PatrickAssale/Shutterstock)

No entanto, não é como se usuários curiosos fossem deixados no escuro sobre o fio da meada do novo ChatGPT. Eles podem ver o que é essencialmente um resumo da linha de raciocínio do Strawberry. Mas isso é montado por um segundo modelo de IA, que dilui o processo.

Leia também:  IPCA, debate entre Kamala e Trump, discursos do Fed e importações da China: o que move o mercado

Leia mais:

ChatGPT sabe gritar? Vídeo viral revela função inesperada

Detector de IA: 5 sites para conferir se o texto foi escrito pelo ChatGPT

Como aumentar quantidade de mensagens no ChatGPT 4o

OpenAI diz que esconde cadeia de pensamento do ChatGPT por questões de segurança (Imagem: TY Lim/Shutterstock)

O que diz a empresa: a OpenAI argumenta que precisa esconder a cadeia de pensamento para que não precise colocar filtros sobre como sua IA pensa. Esse filtro seria para quando a IA dissesse coisas que não estejam em conformidade com as políticas de segurança da empresa enquanto “pensa em voz alta”.

Leia também:  Green Bay Packers x Detroit Lions: onde assistir, horário e informações do jogo da NFL

Porém, a empresa admite que essa medida também ajuda a manter uma “vantagem competitiva”, afastando concorrentes que tentam fazer engenharia reversa na sua tecnologia.

A ironia: a OpenAI ameaçar banir usuários que tentam fazer sua IA que “pensa” revelar como “pensa” reforça como a empresa tem mudado sua postura original. Aquela de organização sem fins lucrativo que quer apenas desenvolver a melhor IA possível (e de código aberto) para a humanidade.

O post Quer saber como o novo ChatGPT realmente ‘pensa’? Vai ficar querendo apareceu primeiro em Olhar Digital.


Publicado

em

Tags:

Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *