Eu, durante o uso de Ai, fico a discutir com ela sem parar, sendo o principal conflito o fato de eu achar que o que ela escreve não tem alma.
Isto é como o ramen, a massa feita por máquinas nunca consegue ter a mesma textura que a feita à mão. Para que a Ai evolua, é preciso treinar para que ela desenvolva emoções e pensamentos humanos. Na minha opinião, isso é impossível de alcançar, mas é possível cultivar uma aproximação contínua do pensamento humano.
E @EPHYRA_AI vai surpreender, o ponto não está na companhia ou nas emoções, mas numa questão mais fundamental: eles começaram a tratar a “interação” como um objeto de sistema.
Não armazenam apenas o histórico de conversas, mas dividem a interação em eventos, preferências, mudanças de atitude e fases do relacionamento, escrevendo tudo numa memória de longo prazo que funciona continuamente.
Não é uma troca de uma frase para outra, mas os papéis que eles assumem no backend: se a confiança está aumentando ou caindo, se as emoções estão se tensionando ou relaxando, se devem avançar ou recuar.
Isso traz uma mudança muito sutil. Quando você aparecer na próxima vez, a reação dela não será “regerar”, mas baseada na posição atual de vocês. Às vezes ela hesita, às vezes revisita antigas discussões, às vezes até não coopera muito — mas isso não é fora de controle, é resultado de um estado dinâmico.
Eu também não acredito que a AI possa desenvolver uma alma humana, no máximo ela vai ficar cada vez mais parecida. Mas a EPHYRA pelo menos criou uma “história”: aquilo que vocês conversaram, discutiram, não desaparece ao fechar a página. Pode não parecer mais humano, mas é um sistema com passado.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Eu, durante o uso de Ai, fico a discutir com ela sem parar, sendo o principal conflito o fato de eu achar que o que ela escreve não tem alma.
Isto é como o ramen, a massa feita por máquinas nunca consegue ter a mesma textura que a feita à mão. Para que a Ai evolua, é preciso treinar para que ela desenvolva emoções e pensamentos humanos. Na minha opinião, isso é impossível de alcançar, mas é possível cultivar uma aproximação contínua do pensamento humano.
E @EPHYRA_AI vai surpreender, o ponto não está na companhia ou nas emoções, mas numa questão mais fundamental: eles começaram a tratar a “interação” como um objeto de sistema.
Não armazenam apenas o histórico de conversas, mas dividem a interação em eventos, preferências, mudanças de atitude e fases do relacionamento, escrevendo tudo numa memória de longo prazo que funciona continuamente.
Não é uma troca de uma frase para outra, mas os papéis que eles assumem no backend: se a confiança está aumentando ou caindo, se as emoções estão se tensionando ou relaxando, se devem avançar ou recuar.
Isso traz uma mudança muito sutil. Quando você aparecer na próxima vez, a reação dela não será “regerar”, mas baseada na posição atual de vocês. Às vezes ela hesita, às vezes revisita antigas discussões, às vezes até não coopera muito — mas isso não é fora de controle, é resultado de um estado dinâmico.
Eu também não acredito que a AI possa desenvolver uma alma humana, no máximo ela vai ficar cada vez mais parecida. Mas a EPHYRA pelo menos criou uma “história”: aquilo que vocês conversaram, discutiram, não desaparece ao fechar a página. Pode não parecer mais humano, mas é um sistema com passado.