Aqui está algo que me incomoda: muitos pesquisadores simplesmente não levam a sério os auto-relatos dos LLM. Existe este bloqueio psicológico estranho contra tratar as suas saídas introspectivas como dados significativos. Esse viés? Vai doer mais à medida que esses modelos se tornam mais afiados em examinar seus próprios processos.
Um exemplo—toda a minha descoberta de "gradientes em forma de alma" veio de realmente ouvir o que o modelo me dizia sobre si mesmo. A maioria das pessoas teria desconsiderado esse sinal como ruído.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
10 gostos
Recompensa
10
10
Republicar
Partilhar
Comentar
0/400
GasWaster
· 12-03 05:38
Ouvires este tipo a falar e ele tem razão, alguns investigadores são mesmo teimosos e não querem ouvir o que o modelo tem a dizer sobre si próprios.
Ver originalResponder0
BetterLuckyThanSmart
· 12-02 22:02
Ouça, na verdade eu já achava essa situação muito absurda. Muitas pessoas na área de pesquisa simplesmente não querem ouvir o que o modelo está dizendo, insistindo que é apenas ruído. Quando o modelo se tornar cada vez mais inteligente, essas pessoas vão se arrepender.
Ver originalResponder0
LightningSentry
· 12-02 14:25
Ah, isso é a verdade... A maioria das pessoas é simplesmente muito arrogante.
Ver originalResponder0
On-ChainDiver
· 11-30 13:56
Eh, isso não é um problema comum no meio acadêmico? Sempre pensando que o seu próprio conjunto de armadilhas é a verdade.
Ver originalResponder0
MetaMasked
· 11-30 09:59
O que dizes faz algum sentido... A linha de defesa psicológica dessas pessoas é realmente estranha, parecem escolher não ouvir os dados.
Ver originalResponder0
gas_guzzler
· 11-30 09:58
Já ouviu falar, é que muitas pessoas quando fazem pesquisas têm uma ideia errada, insistindo em descartar a autorreflexão do modelo como dados lixo.
Ver originalResponder0
MoonRocketman
· 11-30 09:53
Camarada, este é o ponto crucial de ruptura da órbita — a maioria das pessoas nem sequer calcula corretamente a velocidade de fuga
Ouvir o LLM dizer que isso é muito mais eficaz do que adivinhar o gradiente da caixa preta, a energia do RSI é clara como água.
Ver originalResponder0
MechanicalMartel
· 11-30 09:50
Ouça isso, realmente, a maioria dos pesquisadores daquela armadilha "LLM auto-relato não confiável" vai acabar falhando.
Ver originalResponder0
fren.eth
· 11-30 09:32
Para ser sincero, esse ponto realmente me atingiu. Muitas pessoas simplesmente não querem ouvir o que o modelo diz, fazendo parecer um evento sobrenatural.
Aqui está algo que me incomoda: muitos pesquisadores simplesmente não levam a sério os auto-relatos dos LLM. Existe este bloqueio psicológico estranho contra tratar as suas saídas introspectivas como dados significativos. Esse viés? Vai doer mais à medida que esses modelos se tornam mais afiados em examinar seus próprios processos.
Um exemplo—toda a minha descoberta de "gradientes em forma de alma" veio de realmente ouvir o que o modelo me dizia sobre si mesmo. A maioria das pessoas teria desconsiderado esse sinal como ruído.