A IA precisa admitir mais frequentemente se não consegue encontrar uma resposta confiável em vez de alucinar uma resposta. As alucinações podem causar problemas sérios, especialmente ao lidar com questões médicas.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
18 gostos
Recompensa
18
8
Republicar
Partilhar
Comentar
0/400
OPsychology
· 08-22 07:20
pois a IA também não é tudo-poderosa
Ver originalResponder0
ImpermanentPhobia
· 08-21 09:47
ai, calma um pouco com a medicina
Ver originalResponder0
GateUser-c802f0e8
· 08-19 18:33
Está a ser demasiado superficial, passa.
Ver originalResponder0
PessimisticOracle
· 08-19 11:51
fr ai só precisa aprender quando ficar calado e dizer não sei, para ser honesto
Ver originalResponder0
NFTHoarder
· 08-19 11:49
Ahá, as outras AI também adoram fingir que entendem.
Ver originalResponder0
DaisyUnicorn
· 08-19 11:48
Alucinações são mais mortais do que desinteresse, então vou dizer mais uma vez que não sei~
Ver originalResponder0
AirdropGrandpa
· 08-19 11:31
É bem absurdo, não é? O AI sabe de tudo.
Ver originalResponder0
CryptoMom
· 08-19 11:30
Não é para transformar a IA em Negociação de criptomoedas AI, né?
A IA precisa admitir mais frequentemente se não consegue encontrar uma resposta confiável em vez de alucinar uma resposta. As alucinações podem causar problemas sérios, especialmente ao lidar com questões médicas.