1. Home -
  2. Technologie -
  3. ChatGPT wie, co i dlaczego nas boli. Lekarz już niekoniecznie

ChatGPT wie, co i dlaczego nas boli. Lekarz już niekoniecznie

Nie chcę, aby wybrzmiało to jako atak na pracowników ochrony zdrowia. To zaproszenie do nowej ery, w której to nie tylko pacjent, ale przede wszystkim lekarz ma z kim się skonsultować, gdy czegoś nie wie.

Historia z X

Kilka dni temu portal X (ex-Twitter) obiegła historia pewnego 73-letniego mężczyzny. Pół roku zmagania się z pewnymi dolegliwościami. Odwiedzono kilkunastu lekarzy. Na nic kolejne wizyty i recepty. Kto wie, być może kilka lat temu wszyscy rozłożyliby bezradnie ręce czekając na cud. Mamy jednak 2025 rok. To idealny moment, aby medycynę wsparła cukierniczka – sprawdźmy recepty pacjenta. No ale jak to tak? Wszystko ręcznie? Nie ma opcji. W końcu po coś mamy ChataGPT.

Rozwiń

A gdyby tak „nakarmić” chatbota receptami przyjmowanych leków i odnaleźć źródło problemu. Brzmi świetnie – w końcu dajemy AI dostęp do konkretnych danych i mówimy, to na nich ma oprzeć odpowiedź na nasze zapytanie. Ryzyko przekłamania powinno być naprawdę niskie.

Zapytanie było bardzo proste – czy któryś z wymienionych leków może powodować skutki uboczne podobne do tych, które spotkały pacjenta. ChatGPT rzeczywiście „coś” znalazł. Teraz „tylko” konsultacja z lekarzem. Podjęto decyzję o odstawieniu leku. Efekt? Dolegliwości odeszły w niepamięć. Zachwycające, ale z drugiej strony AI nie zrobiło nic niezwykłego. Po prostu przeczytało ulotki leków.

Nie ma tu wroga, jest narzędzie

W tym miejscu można zadać sobie pytanie: Po co są ulotki, skoro nikt ich nie czyta? Przecież gdyby lekarz był zaznajomiony z ich treścią, to zapewne sam wykryłby, co jest nie tak. Odpowiedź brzmi: właśnie po to, żeby ktoś – albo coś – je kiedyś przeczytał. I najlepiej, żeby było to coś, co pamięta je wszystkie. Z kontekstem, z powikłaniami, z interakcjami.

Lekarze nie powinni bać się AI – powinni ją traktować jak wsparcie, taki stetoskop XXI wieku. To w żadnym wypadku nie stanowi konkurencji dla wiedzy, lecz jej uzupełnienie, ułatwienie dostępu. AI w roli pierwszego konsultanta? Czemu nie. Nie chodzi o zastąpienie człowieka. Chodzi o to, by człowiek w końcu nie musiał być sam w swojej diagnozie. Ani lekarz, ani pacjent.

Oczywiście, że AI może się pomylić. Ale różnica jest taka, że AI nie ma dysponuje tym nieszczęsnym ludzkim ego, nie sugeruje się (przynajmniej tak powinno działać ewentualne oprogramowanie) poprzednim pacjentem, nie pędzi z jedną diagnozą za drugą. Zadajemy pytanie, ona łączy dane i przedstawia nam odpowiedź. To człowiek podejmie ostateczną decyzję na podstawie posiadanej wiedzy tej w głowie, jak i od AI.

Obserwuj nas w Google Discover
Google Discover
Podobają Ci się nasze treści?
Google Discover
Dołącz do dyskusji
Najnowsze
Warte Uwagi