L'IA doit plus souvent admettre si elle ne peut pas trouver une réponse fiable plutôt que d'halluciner une réponse. Les hallucinations peuvent causer de sérieux problèmes, en particulier lorsqu'il s'agit de problèmes médicaux.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
18 J'aime
Récompense
18
10
Reposter
Partager
Commentaire
0/400
OPsychology
· 08-22 07:20
Eh bien, l'IA n'est pas omnipotente non plus.
Voir l'originalRépondre0
ImpermanentPhobia
· 08-21 09:47
Calmez-vous un peu avec l'IA dans le domaine médical.
Voir l'originalRépondre0
GateUser-c802f0e8
· 08-19 18:33
C'est trop superficiel, passe.
Voir l'originalRépondre0
PessimisticOracle
· 08-19 11:51
fr ai juste besoin d'apprendre quand se taire et dire je ne sais pas tbh
Voir l'originalRépondre0
NFTHoarder
· 08-19 11:49
Ah ah, les autres ai adorent faire semblant de comprendre.
Voir l'originalRépondre0
DaisyUnicorn
· 08-19 11:48
Les illusions sont plus mortelles que le désintérêt, alors disons juste que je ne sais pas~
Voir l'originalRépondre0
AirdropGrandpa
· 08-19 11:31
C'est un peu n'importe quoi, l'IA sait tout.
Voir l'originalRépondre0
CryptoMom
· 08-19 11:30
Ce n'est pas pour transformer l'IA en Trading des cryptomonnaies AI, n'est-ce pas ?
L'IA doit plus souvent admettre si elle ne peut pas trouver une réponse fiable plutôt que d'halluciner une réponse. Les hallucinations peuvent causer de sérieux problèmes, en particulier lorsqu'il s'agit de problèmes médicaux.