ChatGPT Health pod lupą: Czy AI bagatelizuje zagrożenia życia?
ChatGPT Health pod lupą: Czy AI bagatelizuje zagrożenia życia?
Nowa funkcja ChatGPT Health budzi poważne kontrowersje. Niezależna ocena bezpieczeństwa, przeprowadzona przez ekspertów, ujawnia krytyczne luki w algorytmach medycznych OpenAI. Badanie, opublikowane w czasopiśmie „Nature Medicine”, wskazuje, że system nie zalecał wizyt w szpitalu w ponad połowie przypadków.
Eksperci, w tym dr. Ashwin Ramaswamy z Icahn School of Medicine, poddali narzędzie testom opartym na 60 realistycznych scenariuszach klinicznych. Wyniki były alarmujące. System AI często zawodził w sytuacjach, które wymagały pilnej interwencji, co stwarza ryzyko niewłaściwych decyzji zdrowotnych oraz fałszywego poczucia bezpieczeństwa.
Jak podkreślają badacze, takie błędy mogą prowadzić do niepotrzebnych zgonów. W obliczu rosnącej roli AI w sektorze medycznym, konieczne są dalsze badania i poprawa tych technologii, aby zapewnić bezpieczeństwo pacjentów.
Na podstawie: Źródła








