Musisz przeczytać
OpenAI ogłosiło w środę, 7 stycznia, że wprowadza wersję ChatGPT skoncentrowaną na zdrowiu o nazwie ChatGPT Health. Określane jako "dedykowane doświadczenie w ChatGPT zaprojektowane dla zdrowia i dobrego samopoczucia", to nowe doświadczenie pozwoliłoby potencjalnym użytkownikom przekazywać ChatGPT swoje osobiste informacje zdrowotne.
Firma twierdzi, że celem ChatGPT Health jest pomoc w uporządkowaniu rozproszonych informacji zdrowotnych, które ludzie otrzymują od lekarzy, z badań i aplikacji monitorujących zdrowie, a także "zrozumienie najnowszych wyników badań, przygotowanie się do wizyt u lekarza, uzyskanie porad dotyczących podejścia do diety i rutyny treningowej lub zrozumienie kompromisów między różnymi opcjami ubezpieczenia w oparciu o wzorce opieki zdrowotnej."
Widzę, że inicjatywa ma dobre intencje, ale jako osoba, która ma zdrową dawkę sceptycyzmu wobec inicjatyw AI, musiałem zadać sobie pytanie: "Czy ChatGPT może oferować prawdziwe wsparcie dla osób potrzebujących rzeczywistej opieki medycznej?"
Przejrzałem ich dokumentację, aby rozwiązać niektóre z moich własnych obaw dotyczących nadchodzącego wdrożenia ChatGPT Health.
Choć ma na celu pomoc użytkownikom w lepszym rzecznictwie za sobą, gdy nadejdzie czas wizyty u lekarza, w swoim ogłoszeniu wyraźnie stwierdza, że jest zaprojektowany, aby "wspierać, a nie zastępować opiekę medyczną." Przyjrzałem się, jakie ograniczenia wymienia, które uczyniłyby go pomocnikiem, ale nie zamiennikiem rzeczywistych zaleceń lekarza.
Zgodnie ze stroną wsparcia OpenAI dla ChatGPT Health, użytkownicy z USA powyżej 18 roku życia mogą połączyć swoje elektroniczne dokumentacje medyczne lub zdrowotne, aby ChatGPT mógł rozmawiać z nimi konkretnie o kwestiach związanych ze zdrowiem w podsekcji ChatGPT Health w aplikacji. Użytkownicy muszą zalogować się do dostawców, aby to zrobić, co sugeruje pewne niezbędne zabezpieczenia w celu zachowania prywatności danych zdrowotnych.
Dane Apple Health mogą również zostać połączone z ChatGPT Health. Pozwala również na dodanie danych z wielu aplikacji zewnętrznych — mianowicie Peloton, MyFitnessPal, Function, Instacart, AllTrails i Weight Watchers.
Zgodnie z jego stroną wsparcia, informacje, które otrzymuje ChatGPT Health, są odizolowane i wykorzystywane wyłącznie dla ChatGPT Health i żadnych innych funkcji.
Jeśli chodzi o prywatność danych, czuję, że bardzo zadbali o uspokojenie obserwatorów wypatrujących rażących naruszeń.
Ludzie muszą wyrazić zgodę, pozwalając na wykorzystanie swoich danych przez ChatGPT, aby im pomóc. Co bardziej godne uwagi, OpenAI określiło, czego można się spodziewać w dokumentacji medycznej, od "wyników badań laboratoryjnych, podsumowań wizyt i historii klinicznej." Sugeruje również, aby ta funkcja była używana tylko "jeśli czujesz się komfortowo z tymi informacjami w ChatGPT."
Biorąc to pod uwagę, OpenAI twierdzi, że dane umieszczone w ChatGPT Health nie są wykorzystywane do trenowania jego modeli podstawowych i mogą zostać usunięte lub w inny sposób wycofane, kiedy zechcesz. Ponadto rozmowy ChatGPT Health, połączone aplikacje, pamięć i pliki są dostępne tylko w ramach tej usługi.
Podczas gdy rozmowa ChatGPT może nagle stać się rozmową ChatGPT Health, jeśli to konieczne, ta rozmowa ChatGPT Health nie staje się częścią właściwego ChatGPT, chociaż możesz udostępniać swoje rozmowy innym, jeśli zechcesz. Odpowiedzialność spoczywa na twoich działaniach, jak się wydaje.
Być może jedną z dużych potencjalnych zalet ChatGPT Health dla zainteresowanych jego używaniem jest skupienie się na uzyskaniu pomocy od lekarzy w celu dopracowania usługi w okresie dwóch lat. Zgodnie z komunikatem prasowym, OpenAI stwierdziło, że współpracowało z "ponad 260 lekarzami, którzy praktykowali w 60 krajach i dziesiątkach specjalizacji, aby zrozumieć, co sprawia, że odpowiedź na pytanie zdrowotne jest pomocna lub potencjalnie szkodliwa — ta grupa dostarczyła już opinie na temat wyników modelu ponad 600 000 razy w 30 obszarach zainteresowania."
Celem, jak się wydaje, jest zachęcenie ludzi do uzyskania pomocy medycznej i konsolidacji informacji z wyprzedzeniem, ułatwiając pacjentom komunikowanie się o tym, jak się czują, bez nadmiernego uproszczenia jakichkolwiek objawów, pomoc w dostrzeganiu wzorców, których pacjent może nie zauważać zachodzących w czasie, oraz priorytetowe traktowanie bezpieczeństwa użytkowników.
OpenAI dodało: "To kierowane przez lekarzy podejście jest wbudowane bezpośrednio w model zasilający Health, który jest oceniany względem standardów klinicznych przy użyciu HealthBench, ram oceny, które stworzyliśmy z wkładem naszej sieci praktykujących lekarzy." Mówi się, że HealthBench ocenia odpowiedzi ChatGPT Health na podstawie rubryk lekarza, aby odzwierciedlić jakość w praktyce, priorytetowo traktować bezpieczeństwo użytkownika, być jasnym i używać odpowiednich eskalacji opieki oraz szacunku dla kontekstów osoby korzystającej z chatbota.
Dla mnie, jako Filipińczyka, który wie, że opieka zdrowotna jest droga i który ma cukrzycę typu 2, prawdopodobnie rozsądnie byłoby skorzystać z każdej przewagi, jaką mogę uzyskać, jeśli mam problem zdrowotny wymagający diagnozy.
Chociaż nie chciałbym, aby moje dane na zawsze pozostały w ChatGPT Health — dzięki Bogu mogę usunąć moje dane bez pytań — możliwość śledzenia mojej kondycji i zachęcania mnie do wizyty u lekarza w celu uzupełnienia schematu ćwiczeń lub przynajmniej zachęcenia do wizyty lekarskiej, jeśli coś jest nie tak, może być przydatna.
Biorąc to pod uwagę, martwię się, czy ChatGPT bierze pod uwagę rasę, ponieważ istnieje wystarczająco dużo literatury, aby odnotować różnice rasowe w opiece zdrowotnej, choć z różnych powodów. Jeśli ChatGPT Health może pomóc w tworzeniu równości w opiece medycznej, umożliwiając pacjentom lepsze rzecznictwo lub komunikowanie swoich obaw, wspierałbym to.
W międzyczasie pozwolę USA przejąć inicjatywę i zobaczę, jak to się sprawdzi jako rzeczywista usługa. – Rappler.com


