5 motive pentru care nu ar trebui să ai încredere în ChatGPT pentru sfaturi medicale

5 motive pentru care nu ar trebui să ai încredere în ChatGPT pentru sfaturi medicale
Cititorii ca tine ajută la sprijinirea MUO. Când efectuați o achiziție folosind link-uri de pe site-ul nostru, este posibil să câștigăm un comision de afiliat. Citeşte mai mult.

ChatGPT – un chatbot de inteligență artificială (AI) dezvoltat de OpenAI – a devenit un instrument complet pentru a răspunde la multe întrebări simple și dificile, inclusiv solicitări de sfaturi medicale. Poate răspunde la întrebări medicale și poate obține examenul de licență medicală din Statele Unite (USMLE), dar nu poate înlocui o programare cu un medic la spital.





REALIZAREA VIDEOCLIPULUI ZILEI Derulați PENTRU A CONTINUA CU CONȚINUT

Pe măsură ce ChatGPT avansează, are potențialul de a transforma complet sectorul sănătății. Atunci când este integrat cu sistemele de sănătate, poate îmbunătăți accesul pacienților la îngrijire și poate crește eficiența muncii medicilor. Cu toate acestea, deoarece se bazează pe inteligență artificială, există mai multe preocupări cu privire la potențialele sale pericole.





1. ChatGPT are cunoștințe limitate

  Porc la inimă

ChatGPT nu știe totul. Potrivit OpenAI, ChatGPT are cunoștințe limitate, în special când vine vorba de ceea ce s-a întâmplat după septembrie 2021.





ChatGPT nu are acces direct la motoarele de căutare sau la internet. A fost instruit folosind o cantitate mare de date text din numeroase surse, inclusiv cărți, site-uri web și alte texte. Nu „știe” datele pe care le furnizează. În schimb, ChatGPT folosește textul citit pentru a crea predicții despre cuvintele de folosit și în ce ordine.

Prin urmare, nu poate obține știri actuale despre evoluțiile din domeniul medical. Da, ChatGPT nu cunoaște transplantul de inimă de la porc la om sau orice alte descoperiri foarte recente în știința medicală.



2. ChatGPT poate produce informații incorecte

ChatGPT poate răspunde la întrebările pe care le pui, dar răspunsurile pot fi inexacte sau părtinitoare. Potrivit unui PLoS Digital Health studiu, ChatGPT a efectuat cu o precizie de cel puțin 50% în toate examinările USMLE. Și deși a depășit pragul de trecere de 60% în unele aspecte, există încă posibilitatea de eroare.

În plus, nu toate informațiile folosite pentru a antrena ChatGPT sunt autentice. Răspunsurile bazate pe informații neverificate sau potențial părtinitoare pot fi incorecte sau depășite. În lumea medicinei, informațiile inexacte pot costa chiar și o viață.





Deoarece ChatGPT nu poate cerceta sau verifica în mod independent materialul, nu poate face diferența între realitate și ficțiune. Reviste medicale respectate, inclusiv Journal of the American Medical Association (JAMA), au stabilit reglementări stricte conform cărora numai oamenii pot scrie studii științifice publicate în jurnal. Ca urmare, ar trebui să verificați în mod constant răspunsurile ChatGPT .

3. ChatGPT nu te examinează fizic

Diagnosticele medicale nu depind doar de simptome. Medicii pot obține informații despre tiparul și severitatea unei boli prin examinarea fizică a pacientului. Pentru a diagnostica pacienții, medicii folosesc astăzi atât tehnologiile medicale, cât și cele cinci simțuri.





ChatGPT nu poate efectua un control virtual complet sau chiar o examinare fizică; poate răspunde doar la simptomele pe care le furnizați ca mesaje. Pentru siguranța și îngrijirea pacientului, erorile la examinarea fizică sau ignorarea completă a examinării fizice pot fi dăunătoare. Deoarece ChatGPT nu v-a examinat fizic, va oferi un diagnostic incorect.

răspuns automat la text în timp ce conduceți

4. ChatGPT poate oferi informații false

  Răspuns fals ChatGPT

Un studiu recent realizat de Facultatea de Medicină de la Universitatea din Maryland la sfatul ChatGPT pentru screening-ul cancerului de sân a găsit următoarele rezultate:

„Am văzut în experiența noastră că ChatGPT alcătuiește uneori articole de reviste false sau consorții de sănătate pentru a-și susține afirmațiile.” — Paul Yi M.D., profesor asistent de radiologie diagnostică și medicină nucleară la UMSOM

Ca parte a testării noastre a ChatGPT, am solicitat o listă de cărți non-ficțiune care acoperă subiectul minții subconștiente. Drept urmare, ChatGPT a produs o carte falsă intitulată „Puterea minții inconștiente” de Dr. Gustav Kuhn.

Când am întrebat despre carte, a răspuns că a fost o carte „ipotetică” pe care a creat-o. ChatGPT nu vă va spune dacă un articol de jurnal sau o carte este fals dacă nu întrebați mai multe.

5. ChatGPT este doar un model de limbaj AI

  ChatGPT Medical

Modelele de limbaj funcționează prin memorarea și generalizarea textului, mai degrabă decât prin examinarea sau studierea stării pacientului. În ciuda generării de răspunsuri care se potrivesc standardelor umane în ceea ce privește limbajul și gramatica, ChatGPT conține încă o serie de probleme , la fel ca alți roboți AI.

ChatGPT nu este un înlocuitor pentru medicul dumneavoastră

Medicii umani vor fi întotdeauna necesari pentru a face apelul final asupra deciziilor de asistență medicală. ChatGPT vă sfătuiește de obicei să vorbiți cu un medic autorizat atunci când solicitați sfatul medicului.

Instrumentele bazate pe inteligență artificială, cum ar fi ChatGPT, pot fi folosite pentru a programa întâlniri la medic, pentru a ajuta pacienții să primească tratamente și pentru a menține informațiile despre sănătate. Dar nu poate lua locul expertizei și empatiei unui medic.

Nu ar trebui să vă bazați pe un instrument bazat pe inteligență artificială pentru a vă diagnostica sau trata sănătatea, fie că este fizică sau mentală.