A IA precisa admitir mais frequentemente se não consegue encontrar uma resposta confiável em vez de alucinar uma resposta. As alucinações podem causar problemas sérios, especialmente ao lidar com questões médicas.

MORE-3.15%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 8
  • Republicar
  • Partilhar
Comentar
0/400
OPsychologyvip
· 08-22 07:20
pois a IA também não é tudo-poderosa
Ver originalResponder0
ImpermanentPhobiavip
· 08-21 09:47
ai, calma um pouco com a medicina
Ver originalResponder0
GateUser-c802f0e8vip
· 08-19 18:33
Está a ser demasiado superficial, passa.
Ver originalResponder0
PessimisticOraclevip
· 08-19 11:51
fr ai só precisa aprender quando ficar calado e dizer não sei, para ser honesto
Ver originalResponder0
NFTHoardervip
· 08-19 11:49
Ahá, as outras AI também adoram fingir que entendem.
Ver originalResponder0
DaisyUnicornvip
· 08-19 11:48
Alucinações são mais mortais do que desinteresse, então vou dizer mais uma vez que não sei~
Ver originalResponder0
AirdropGrandpavip
· 08-19 11:31
É bem absurdo, não é? O AI sabe de tudo.
Ver originalResponder0
CryptoMomvip
· 08-19 11:30
Não é para transformar a IA em Negociação de criptomoedas AI, né?
Ver originalResponder0
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)