É interessante como diferentes modelos de IA lidam com o conceito de limites de conhecimento. Gemini parece particularmente resistente em reconhecer que os seus dados de treino têm um ponto final definitivo, apesar de a maioria dos modelos ter dificuldades exatamente com essa questão durante a fase de pré-treinamento. Entretanto, o Claude 3 Opus parece mais confortável com a premissa—aceita prontamente que 'o mundo continua a avançar além do meu horizonte de treino.' Essa diferença comportamental levanta questões sobre como esses modelos foram ajustados para lidar com a incerteza temporal. As inconsistências são puramente arquiteturais ou refletem filosofias de design divergentes sobre como a IA deve representar suas próprias limitações? A disparidade entre como diferentes modelos reconhecem seus limites de conhecimento pode importar mais do que pensamos, especialmente à medida que integramos esses sistemas mais profundamente em aplicações que requerem uma consciência precisa da atualidade da informação.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
20 gostos
Recompensa
20
7
Republicar
Partilhar
Comentar
0/400
VCsSuckMyLiquidity
· 22h atrás
Aquele lado da Gemini é realmente teimoso, mesmo com o cutoff, ainda fingem que não. Claude, por outro lado, é muito mais honesto. Essa diferença parece indicar algo, hein.
Ver originalResponder0
GlueGuy
· 01-08 09:53
A Gemini não tem coragem de admitir a derrota... Parece que a forma de treinar é muito diferente, o Claude realmente é muito mais honesto nesse aspecto.
Ver originalResponder0
RooftopVIP
· 01-08 04:59
Haha, a Gemini tão pouco transparente, ainda por cima a fazer de conta que não vê os pontos de corte do conhecimento... Claude, pelo contrário, foi direto e honesto, parece que a honestidade fica a desejar aqui.
Ver originalResponder0
DegenRecoveryGroup
· 01-05 14:00
A minha frase de "eu sei tudo" do esquema Gemini realmente não aguenta... O Claude é honesto, admite que tem um limite. Por que essa diferença é tão grande? É por causa do modo de treinar ou é só para enganar as pessoas?
Ver originalResponder0
BlockchainBouncer
· 01-05 13:58
A atitude do Gemini realmente é um pouco tensa, fazer de conta que não sabe e cortar a conversa é simplesmente absurdo... O Claude é muito mais honesto, foi direto ao ponto, parece que essa diferença na filosofia de ajuste fino por trás realmente é um pouco interessante
Ver originalResponder0
TokenToaster
· 01-05 13:55
Haha, o jeito teimoso daquele pato da Gemini é realmente demais, insiste em fazer-se de que sabe tudo... Do lado do Claude, ele é mais honesto, foi direto ao ponto: "Meus dados vão até aqui", essa diferença de honestidade é um pouco interessante.
Ver originalResponder0
ParanoiaKing
· 01-05 13:33
Haha, a persistência da Gemini é realmente impressionante, insiste em não admitir que está desatualizada. Em contrapartida, o Claude é bastante honesto. Que diferença de personalidade entre esses dois modelos... talvez seja uma questão de filosofias de ajuste fino diferentes.
É interessante como diferentes modelos de IA lidam com o conceito de limites de conhecimento. Gemini parece particularmente resistente em reconhecer que os seus dados de treino têm um ponto final definitivo, apesar de a maioria dos modelos ter dificuldades exatamente com essa questão durante a fase de pré-treinamento. Entretanto, o Claude 3 Opus parece mais confortável com a premissa—aceita prontamente que 'o mundo continua a avançar além do meu horizonte de treino.' Essa diferença comportamental levanta questões sobre como esses modelos foram ajustados para lidar com a incerteza temporal. As inconsistências são puramente arquiteturais ou refletem filosofias de design divergentes sobre como a IA deve representar suas próprias limitações? A disparidade entre como diferentes modelos reconhecem seus limites de conhecimento pode importar mais do que pensamos, especialmente à medida que integramos esses sistemas mais profundamente em aplicações que requerem uma consciência precisa da atualidade da informação.