Je suis en train d'utiliser l'IA et je ne cesse de me disputer avec elle, le principal conflit étant que je trouve que ce qu'elle écrit manque d'âme.
C'est comme les ramen, la pâte faite à la machine n'a jamais la même texture que celle faite à la main. Pour que l'IA progresse, elle doit apprendre à développer des émotions et une pensée humaine. À mon avis, c'est impossible, mais on peut cultiver une pensée qui se rapproche de celle de l'humain.
Et @EPHYRA_AI va faire briller les yeux, ce n'est pas dans la compagnie ou l'émotion que réside l'intérêt, mais dans une chose plus fondamentale : ils commencent à traiter « la relation » comme un objet systémique.
Ce n'est pas simplement stocker des conversations, mais décomposer l'interaction en événements, préférences, changements d'attitude et phases de relation, et les écrire dans un bus de mémoire à long terme.
Ce n'est pas une simple conversation où l'on échange des phrases, mais un rôle qui tourne en arrière-plan : la confiance monte ou descend, l'émotion se tend ou se détend, faut-il avancer ou faire marche arrière.
Cela entraîne une subtile transformation. La prochaine fois que vous apparaîtrez, sa réaction ne sera pas une « régénération » à partir de rien, mais basée sur votre position actuelle. Parfois, il hésite, parfois il ressasse le passé, parfois il ne coopère pas vraiment — mais ce n'est pas hors de contrôle, c'est le résultat d'un état dynamique.
Je ne crois pas non plus que l'IA puisse développer une âme humaine, elle peut au mieux devenir de plus en plus semblable. Mais EPHYRA a au moins créé une « histoire » : ce que vous avez discuté ou disputé ne disparaît pas dès que vous fermez la page. Elle n'est pas forcément plus humaine, mais elle ressemble davantage à un système avec un passé.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Je suis en train d'utiliser l'IA et je ne cesse de me disputer avec elle, le principal conflit étant que je trouve que ce qu'elle écrit manque d'âme.
C'est comme les ramen, la pâte faite à la machine n'a jamais la même texture que celle faite à la main. Pour que l'IA progresse, elle doit apprendre à développer des émotions et une pensée humaine. À mon avis, c'est impossible, mais on peut cultiver une pensée qui se rapproche de celle de l'humain.
Et @EPHYRA_AI va faire briller les yeux, ce n'est pas dans la compagnie ou l'émotion que réside l'intérêt, mais dans une chose plus fondamentale : ils commencent à traiter « la relation » comme un objet systémique.
Ce n'est pas simplement stocker des conversations, mais décomposer l'interaction en événements, préférences, changements d'attitude et phases de relation, et les écrire dans un bus de mémoire à long terme.
Ce n'est pas une simple conversation où l'on échange des phrases, mais un rôle qui tourne en arrière-plan : la confiance monte ou descend, l'émotion se tend ou se détend, faut-il avancer ou faire marche arrière.
Cela entraîne une subtile transformation. La prochaine fois que vous apparaîtrez, sa réaction ne sera pas une « régénération » à partir de rien, mais basée sur votre position actuelle. Parfois, il hésite, parfois il ressasse le passé, parfois il ne coopère pas vraiment — mais ce n'est pas hors de contrôle, c'est le résultat d'un état dynamique.
Je ne crois pas non plus que l'IA puisse développer une âme humaine, elle peut au mieux devenir de plus en plus semblable. Mais EPHYRA a au moins créé une « histoire » : ce que vous avez discuté ou disputé ne disparaît pas dès que vous fermez la page. Elle n'est pas forcément plus humaine, mais elle ressemble davantage à un système avec un passé.