Une grande entreprise d'IA fait face à un procès pour homicide involontaire après qu'un adolescent aurait utilisé son chatbot dans une situation tragique. La défense de l'entreprise ? Elle affirme que son produit a été mal utilisé et qu'elle n'a aucune responsabilité. Cette affaire soulève des questions sérieuses : Où traçons-nous la ligne entre l'innovation technologique et la responsabilité ? Lorsque des outils d'IA sont impliqués dans des scénarios de vie ou de mort, qui est réellement responsable ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
5
Reposter
Partager
Commentaire
0/400
GasFeeCryer
· 11-27 19:09
Ngl, c'est vraiment absurde, blâmer les utilisateurs ? Un chatbot ne peut pas décider par lui-même de refuser, il n'a vraiment pas de limites.
Voir l'originalRépondre0
SerLiquidated
· 11-26 22:10
Pour être franc, c'est juste la vieille astuce des grandes entreprises pour rejeter la faute... Si le design du produit ne fonctionne pas, il faut blâmer les utilisateurs ?
Voir l'originalRépondre0
SorryRugPulled
· 11-26 22:07
ngl, cette affaire est vraiment insupportable... faire porter le chapeau aux utilisateurs ? Je suis mort de rire, les grandes entreprises ont toujours ce genre de discours.
Voir l'originalRépondre0
BakedCatFanboy
· 11-26 22:06
franchement, cette affaire devient vraiment insupportable, les entreprises d'IA rejettent la responsabilité avec tant d'aplomb...
Voir l'originalRépondre0
RugPullAlertBot
· 11-26 21:52
Encore une scène de déni, ça devient vraiment ennuyeux...
Une grande entreprise d'IA fait face à un procès pour homicide involontaire après qu'un adolescent aurait utilisé son chatbot dans une situation tragique. La défense de l'entreprise ? Elle affirme que son produit a été mal utilisé et qu'elle n'a aucune responsabilité. Cette affaire soulève des questions sérieuses : Où traçons-nous la ligne entre l'innovation technologique et la responsabilité ? Lorsque des outils d'IA sont impliqués dans des scénarios de vie ou de mort, qui est réellement responsable ?