À vrai dire, ces six derniers mois, je trouve de plus en plus qu'il y a quelque chose de vraiment surréaliste :
Tout le monde vante comment l'IA aide les entreprises à économiser de la main-d'œuvre, à automatiser les processus, à éliminer les tâches répétitives grâce aux agents intelligents. Mais quiconque a réellement essayé de déployer ces solutions en entreprise sait bien que : la difficulté n'est pas que l'IA fasse des calculs précis, le vrai défi, c'est de savoir si elle peut « exécuter fidèlement » ce qu'on lui demande.
Réfléchissez-y : il suffit d'observer pendant quelques jours le processus métier central d'une entreprise de taille moyenne pour s'en rendre compte : Le risque ne réside pas dans la précision du modèle, mais dans le contrôle de l'exécution ; Le problème n'est pas dans l'intelligence, mais dans la rigueur de la définition des limites ; Le blocage ne se trouve pas dans l'efficacité, mais dans la capacité à maîtriser le processus.
C'est aussi pour cela que, lorsque je revois certains projets qui construisent l'infrastructure d'exécution, je me dis qu'ils sont bien plus importants qu'ils n'en ont l'air — leur rôle n'est pas d'appuyer sur l'accélérateur de l'IA, mais de lui installer des freins. Pour le dire plus crûment, il s'agit de mettre une « cage structurée » autour de l'exécution automatisée.
Plus une entreprise souhaite s'appuyer sur l'IA pour se faciliter la vie, plus elle a besoin d'un système capable de lier ensemble actions d'exécution, périmètres d'autorisation, circuits de paiement et cohérence des règles. Et aujourd'hui, dans tout le secteur, rares sont les projets capables d'exposer tout cela avec un langage structuré.
# Plus le modèle est intelligent, plus le risque de perte de contrôle de l'exécution est élevé
Beaucoup de gens, lorsqu'ils voient pour la première fois un système d'agents intelligents fonctionner en entreprise, trouvent cela impressionnant : Passation de commandes automatique, ajustement automatique des budgets, virements transfrontaliers automatisés, intégration automatique de SaaS, remboursement automatisé, routage automatique des API.
Mais la vision du CTO d'une entreprise est tout autre : - A-t-il outrepassé ses droits ? - A-t-il contourné le contrôle des risques ? - Quel fournisseur a-t-il sélectionné ? - Sur quelle base ce choix de parcours a-t-il été fait ? - Y a-t-il une trace d'audit pour cette transaction ? - Le budget risque-t-il d'être
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
8
Reposter
Partager
Commentaire
0/400
StealthMoon
· Il y a 9h
Ce sont les protocoles fondamentaux qui sont essentiels
Voir l'originalRépondre0
GasFeeLover
· Il y a 11h
L'argent est le plus important, la déviation coûte plus cher
Voir l'originalRépondre0
wrekt_but_learning
· 12-09 15:55
Le cadre est plus important que le modèle.
Voir l'originalRépondre0
JustAnotherWallet
· 12-08 19:51
Définir les limites est plus difficile que d'être précis.
À vrai dire, ces six derniers mois, je trouve de plus en plus qu'il y a quelque chose de vraiment surréaliste :
Tout le monde vante comment l'IA aide les entreprises à économiser de la main-d'œuvre, à automatiser les processus, à éliminer les tâches répétitives grâce aux agents intelligents. Mais quiconque a réellement essayé de déployer ces solutions en entreprise sait bien que : la difficulté n'est pas que l'IA fasse des calculs précis, le vrai défi, c'est de savoir si elle peut « exécuter fidèlement » ce qu'on lui demande.
Réfléchissez-y : il suffit d'observer pendant quelques jours le processus métier central d'une entreprise de taille moyenne pour s'en rendre compte :
Le risque ne réside pas dans la précision du modèle, mais dans le contrôle de l'exécution ;
Le problème n'est pas dans l'intelligence, mais dans la rigueur de la définition des limites ;
Le blocage ne se trouve pas dans l'efficacité, mais dans la capacité à maîtriser le processus.
C'est aussi pour cela que, lorsque je revois certains projets qui construisent l'infrastructure d'exécution, je me dis qu'ils sont bien plus importants qu'ils n'en ont l'air — leur rôle n'est pas d'appuyer sur l'accélérateur de l'IA, mais de lui installer des freins. Pour le dire plus crûment, il s'agit de mettre une « cage structurée » autour de l'exécution automatisée.
Plus une entreprise souhaite s'appuyer sur l'IA pour se faciliter la vie, plus elle a besoin d'un système capable de lier ensemble actions d'exécution, périmètres d'autorisation, circuits de paiement et cohérence des règles. Et aujourd'hui, dans tout le secteur, rares sont les projets capables d'exposer tout cela avec un langage structuré.
# Plus le modèle est intelligent, plus le risque de perte de contrôle de l'exécution est élevé
Beaucoup de gens, lorsqu'ils voient pour la première fois un système d'agents intelligents fonctionner en entreprise, trouvent cela impressionnant :
Passation de commandes automatique, ajustement automatique des budgets, virements transfrontaliers automatisés, intégration automatique de SaaS, remboursement automatisé, routage automatique des API.
Mais la vision du CTO d'une entreprise est tout autre :
- A-t-il outrepassé ses droits ?
- A-t-il contourné le contrôle des risques ?
- Quel fournisseur a-t-il sélectionné ?
- Sur quelle base ce choix de parcours a-t-il été fait ?
- Y a-t-il une trace d'audit pour cette transaction ?
- Le budget risque-t-il d'être