Ny studie fra Oxford: Å bruke KI-chatboter for medisinsk rådgivning kan være «farlig». Forskere advarer pasienter om å stole på språkmodeller.
Studien
Forskere fra Oxford Internet Institute og Nuffield Department of Primary Care testet nesten 1.300 deltakere som skulle identifisere helsetilstander og anbefalte handlinger.
Noen brukte KI-chatboter (LLM), andre tradisjonelle metoder som fastlege.
Blanding av godt og dårlig
Studien, publisert i Nature Medicine, fant at KI ofte gir en «blanding av god og dårlig informasjon» som brukere sliter med å skille.
«Til tross for all hypen, er KI rett og slett ikke klar til å ta på seg legens rolle. Pasienter må være klar over at å spørre en stor språkmodell om symptomene sine kan være farlig.» — Dr. Rebecca Payne, medforfatter og fastlege
Gode på tester, dårlige i praksis
Chatbotene «utmerker seg på standardiserte tester av medisinsk kunnskap», men bruk som medisinsk verktøy «utgjør risiko for virkelige brukere som søker hjelp med egne medisinske symptomer».
Vanskelig med mennesker
Studiens hovedforfatter Andrew Bean sa at studien viser at «interaksjon med mennesker utgjør en utfordring» selv for de beste språkmodellene.
«Vi håper dette arbeidet vil bidra til utviklingen av tryggere og mer nyttige KI-systemer.»