SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

ChatGPT w medycynie: ponad połowa diagnoz błędna

Silnik sztucznej inteligencji ChatGPT nie może być użyty jako narzędzie diagnostyczne w medycynie, bo w ponad połowie przypadków się myli – podsumowali kanadyjscy naukowcy z Uniwersytetu Zachodniego Ontario po przetestowaniu modelu na przypadkach pacjentów. ChatGPT umie jednak pisać czytelne odpowiedzi.

Dołącz do dyskusji: ChatGPT w medycynie: ponad połowa diagnoz błędna

10 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
Al
AI mimo całego tego hype-a nie jest bezbłędny (nawet na proste pytania AI potrafi "halucynować"). To wciąż dopiero początki (aczkolwiek bardzo obiecujące) i należy traktować tą technologię jako narzędzie wspomagające, ale nie całkowicie wyręczające.
6 1
odpowiedź
User
MK
Na litość Boską... Jak mozna oczekiwać od programu do generowania tekstu poprawnej diagnozy medycznej? ChatGPT zgaduje jakie slowa powinny pojawić się w odpowiedzi na zasadzie prawdopodobieństwa. On nie rozumie tych słów!
5 2
odpowiedź
User
MK
Na litość Boską... Jak mozna oczekiwać od programu do generowania tekstu poprawnej diagnozy medycznej? ChatGPT zgaduje jakie slowa powinny pojawić się w odpowiedzi na zasadzie prawdopodobieństwa. On nie rozumie tych słów!
2 1
odpowiedź