O principal chamariz apresentado pela OpenAI para o o1 (apelidado de “Strawberry”) foi sua capacidade de “reflexão”. Você deve ter lido por aí variações como “pensar” e “raciocínio” em matérias sobre o novo modelo de inteligência artificial para o ChatGPT. Naturalmente, usuários ficaram curiosos. E a OpenAI não gostou disso.
O site Ars Technica apontou que a OpenAI tem ameaçado banir usuários que tentam fazer o ChatGPT revelar seus truques. De acordo com relatos publicados nas redes sociais, usuários têm recebido e-mails da startup alertando que suas mensagens para o ChatGPT tinham tentado “contornar salvaguardas”.
E as mensagens vão além: “Violações adicionais desta política podem resultar na perda de acesso ao GPT-4 com reflexão.”
Um bom ChatGPT nunca revela seus truques (e ‘raciocínios’)
Os relatos variam sobre o que aciona as violações.
Alguns usuários disseram que usar o termo “reasoning trace” (algo como “linha de raciocínio”, em tradução livre) foi o que acionou alertas na OpenAI;
Outros dizem que até mesmo usar a palavra “raciocínio” sozinha foi suficiente para a empresa enquadrá-los por e-mail.
No entanto, não é como se usuários curiosos fossem deixados no escuro sobre o fio da meada do novo ChatGPT. Eles podem ver o que é essencialmente um resumo da linha de raciocínio do Strawberry. Mas isso é montado por um segundo modelo de IA, que dilui o processo.
Leia mais:
ChatGPT sabe gritar? Vídeo viral revela função inesperada
Detector de IA: 5 sites para conferir se o texto foi escrito pelo ChatGPT
Como aumentar quantidade de mensagens no ChatGPT 4o
O que diz a empresa: a OpenAI argumenta que precisa esconder a cadeia de pensamento para que não precise colocar filtros sobre como sua IA pensa. Esse filtro seria para quando a IA dissesse coisas que não estejam em conformidade com as políticas de segurança da empresa enquanto “pensa em voz alta”.
Porém, a empresa admite que essa medida também ajuda a manter uma “vantagem competitiva”, afastando concorrentes que tentam fazer engenharia reversa na sua tecnologia.
A ironia: a OpenAI ameaçar banir usuários que tentam fazer sua IA que “pensa” revelar como “pensa” reforça como a empresa tem mudado sua postura original. Aquela de organização sem fins lucrativo que quer apenas desenvolver a melhor IA possível (e de código aberto) para a humanidade.
O post Quer saber como o novo ChatGPT realmente ‘pensa’? Vai ficar querendo apareceu primeiro em Olhar Digital.
Deixe um comentário