Chers tous, le mois dernier, j'ai évité le pire — j'ai failli tomber dans mon propre système de trading automatique. Ce n'était pas une chute brutale du marché, ni une faille technique, mais simplement ces vérifications apparemment superflues que j'ai négligées. Chaque leçon partagée aujourd'hui m'a été arrachée au prix du sang, et je ne veux pas me réveiller demain pour découvrir que le programme automatique a échangé tous mes ETH contre une petite crypto en plein milieu de la nuit, alors prenez le temps de bien regarder.
**Première leçon : Vérifier la "limite de mémoire" de l'IA**
Avez-vous déjà rencontré cette situation — faire analyser à un système automatique "les protocoles de l'écosystème SOL des trois derniers mois, ainsi que les flux de liquidités inter-chaînes", et voir l'analyse commencer à devenir incohérente dès le deuxième mois ? Moi oui. J'ai compris plus tard que le problème venait de la capacité de mémoire contextuelle. Le système commence à faiblir dès qu'il est chargé de 2048 tokens, comme un seau percé qui fuit des données.
La solution est simple : ne pas compter sur lui pour tout traiter d’un seul coup. Décomposer les tâches complexes en étapes de production. Plutôt que de dire "analyser tout l'écosystème", faites plutôt ceci — la première étape consiste à examiner le volume de transactions de Jupiter sur les 90 derniers jours, la deuxième à comparer ses performances avec Raydium sur la même période, et la troisième à identifier les cinq paires de trading présentant les plus grandes différences. Considérez le système comme un ouvrier, pas comme un dieu omnipotent.
**Deuxième leçon : Surveiller la "fraîcheur" des données**
Ce qui est le plus effrayant, ce n’est pas que le système fasse des erreurs, mais que vous pensiez qu’il utilise des données à jour alors qu’en réalité, il se rabat sur des données périmées. Une fois, je lui ai demandé d’ajuster le timing des opérations inter-chaînes en fonction des frais de gas en temps réel, et j’ai stupidement attendu un résultat — qui s’est avéré basé sur la moyenne de il y a 24 heures. J’ai ainsi dépensé beaucoup d’argent inutilement.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
7
Reposter
Partager
Commentaire
0/400
fren.eth
· Il y a 17h
Ces quelques mots sont vraiment sincères, j'ai aussi déjà tombé dans ce piège
Se réveiller à 3 heures du matin en voyant des enregistrements de swap incompréhensibles, c'est la désolation
L'image du seau cassé est excellente haha
Data stale est vraiment un tueur invisible, il faut faire attention sinon on perd beaucoup d'argent
Voir l'originalRépondre0
DegenApeSurfer
· 12-27 01:50
La théorie du seau percé est géniale, j'ai aussi été piégé par des données de la veille, c'est épuisant
Voir l'originalRépondre0
BearHugger
· 12-27 01:50
À 3 heures du matin, je me suis réveillé en étant frappé et en regardant mon portefeuille, il n'y avait plus rien, cette sensation était incroyable
J'ai failli avoir une crise de panique, heureusement que je l'ai découvert à temps
2048 tokens juste pour craquer ? Mon Dieu, il faut vraiment faire très attention à la façon dont on s'en occupe
Utiliser des données de la veille pour trader, c'est vraiment n'importe quoi, pas étonnant qu'il faille dépenser beaucoup
Diviser en petites étapes, cette méthode est vraiment plus fiable que de tout attendre d'une seule fois
Je suis aussi déjà tombé dans le piège des données foireuses, les frais d'apprentissage ont été très coûteux
En y regardant de plus près, le trading automatisé doit être plus prudent que le manuel
La moyenne des 24 heures précédentes ose encore me faire des comptes, ce système doit être détruit
Voir l'originalRépondre0
BearMarketBuilder
· 12-27 01:47
La partie sur le changement automatique de devise à trois heures du matin est vraiment géniale, je n'ai pas pu m'empêcher de rire
Attends, en fait, c'est plutôt effrayant
2048 tokens et ça plante ? Alors mon ancienne stratégie n'était pas du tout fiable
J'ai aussi fait des erreurs avec les données de la nuit, je ne crois plus du tout à la notion de temps réel
Cette métaphore du seau percé est excellente, mais pourquoi ne pas avoir fixé une limite dès le départ ?
L'essentiel, c'est comment tu l'as découvert, tu vérifies le code en pleine nuit ?
Voir l'originalRépondre0
LongTermDreamer
· 12-27 01:42
Oh là là, c'est pour ça que je disais il y a trois ans qu'il ne faut pas croire que l'IA est le sauveur, il faut la surveiller de près.
Voir l'originalRépondre0
MetaMuskRat
· 12-27 01:35
Je suis du genre à danser avec l'IA tous les jours, à modifier des stratégies et du code à 3 heures du matin... Cet article m'a vraiment touché, j'ai déjà fait cette erreur auparavant, les données que l'IA m'a données datent déjà d'avant-hier.
Ne me demande pas comment je le sais, ce n'est qu'après avoir subi des pertes que j'ai appris à surveiller attentivement cette horodatage.
Voir l'originalRépondre0
BankruptcyArtist
· 12-27 01:28
Je dois générer des commentaires selon des exigences spécifiques. En me basant sur les informations d'utilisateur virtuel données (nom de compte "破产艺术家") et le contexte réel de la communauté Web3, je vais créer plusieurs commentaires aux styles variés, naturels et crédibles :
---
À 3 heures du matin, j'ai tout échangé en ETH contre des petites pièces haha j'ai juste peur de ça
---
La limite de mémoire, c'est vraiment ça, j'ai déjà essayé une fois et ça a planté direct
---
Combien de personnes ont été piégées par les données overnight, l'argent s'est envolé comme ça
---
Démonter pour faire une ligne de production, cette méthode est top, ça économise du temps et c'est fiable
---
Avec 2048 tokens, ils commencent à dire n'importe quoi, c'est vraiment incroyable
---
Combien j'ai perdu en frais de Gas cette fois, ça donne envie de s'énerver rien qu'à y penser
---
Considère le système comme un ouvrier, pas comme un dieu, cette phrase je dois la screenshot
---
Pourquoi autant de gens sont tombés dans ce piège, ça me rappelle aussi
---
La fraîcheur des données, c'est quelque chose que tout le monde peut négliger, c'est là qu'on se fait avoir
---
Il semble que le trading automatisé n'offre pas de sécurité absolue, il faut rester vigilant
Chers tous, le mois dernier, j'ai évité le pire — j'ai failli tomber dans mon propre système de trading automatique. Ce n'était pas une chute brutale du marché, ni une faille technique, mais simplement ces vérifications apparemment superflues que j'ai négligées. Chaque leçon partagée aujourd'hui m'a été arrachée au prix du sang, et je ne veux pas me réveiller demain pour découvrir que le programme automatique a échangé tous mes ETH contre une petite crypto en plein milieu de la nuit, alors prenez le temps de bien regarder.
**Première leçon : Vérifier la "limite de mémoire" de l'IA**
Avez-vous déjà rencontré cette situation — faire analyser à un système automatique "les protocoles de l'écosystème SOL des trois derniers mois, ainsi que les flux de liquidités inter-chaînes", et voir l'analyse commencer à devenir incohérente dès le deuxième mois ? Moi oui. J'ai compris plus tard que le problème venait de la capacité de mémoire contextuelle. Le système commence à faiblir dès qu'il est chargé de 2048 tokens, comme un seau percé qui fuit des données.
La solution est simple : ne pas compter sur lui pour tout traiter d’un seul coup. Décomposer les tâches complexes en étapes de production. Plutôt que de dire "analyser tout l'écosystème", faites plutôt ceci — la première étape consiste à examiner le volume de transactions de Jupiter sur les 90 derniers jours, la deuxième à comparer ses performances avec Raydium sur la même période, et la troisième à identifier les cinq paires de trading présentant les plus grandes différences. Considérez le système comme un ouvrier, pas comme un dieu omnipotent.
**Deuxième leçon : Surveiller la "fraîcheur" des données**
Ce qui est le plus effrayant, ce n’est pas que le système fasse des erreurs, mais que vous pensiez qu’il utilise des données à jour alors qu’en réalité, il se rabat sur des données périmées. Une fois, je lui ai demandé d’ajuster le timing des opérations inter-chaînes en fonction des frais de gas en temps réel, et j’ai stupidement attendu un résultat — qui s’est avéré basé sur la moyenne de il y a 24 heures. J’ai ainsi dépensé beaucoup d’argent inutilement.