Clique na imagem para ver o vídeo
Estudo publicado em uma revista científica testou a ferramenta de inteligência artificial para responder perguntas sobre o tratamento de cânceres de pulmão, próstata e mama. Os resultados foram comparados com as diretrizes de um instituto referência dos Estados Unidos (National Comprehensive Cancer Network) e um terço deles apresentou imprecisões. 13 das 104 recomendações se enquadram no que é chamado de alucinação - termo técnico usado para quando a ferramenta inventa uma resposta por não encontrar equivalências em seu banco de dados.
Clique na imagem abaixo para ver o vídeo.
Fonte: JornalDaCultura
Compartilhe esta matéria no Telegram | Facebook | X | Linkedin ou copie o link abaixo para enviá-lo por qualquer outro meio:
https://agrosoft.com.br/social/?q=2023-09-06-chatgpt-inteligencia-artificial-oferecem-informacoes-duvidosas-e-erradas-sobre