Robot w lekarskim kitlu stoi w szpitalu. Wielka zmiana w ChatGPT: koniec porad medycznych
ChatGPT traci moc doradcy. Koniec porad medycznych, prawnych i finansowych Fot. Canva AI/INNPoland

OpenAI oficjalnie zabraniło wykorzystywania ChatGPT do udzielania porad wymagających licencji — od medycznych po prawne. Zamiast recepty lub pozwu dostaniesz tylko ogólne informacje i ostrzeżenie: "Skontaktuj się ze specjalistą". Firma ogranicza w ten sposób swoją odpowiedzialność za porady, których udziela ich model sztucznej inteligencji.

REKLAMA

Przez ostatnie 3 lata istnienia ChatGPT był on wykorzystywany przez miliony użytkowników na świecie do wielu różnych celów. Podczas gdy jedni wspomagali się nim podczas pisania opisów do postów na social media, drudzy planowali z nim wakacje, jeszcze inni traktowali chatbota jak profesjonalistę, który udzielał im rad prawnych, podatkowych czy medycznych.

ChatGPT nie udziela specjalistycznych porad medycznych, prawnych i finansowych

Wystarczyło wpisać "mam dziwną wysypkę" albo "napisz mój testament", a ChatGPT robił wszystko, co w jego mocy, żeby zadowolić nas spersonalizowaną odpowiedzią. OpenAI postanowiło jednak uporządkować swój regulamin.

W aktualizacji zasad stwierdzono, że użytkownicy nie mogą korzystać z usług OpenAI "do udzielania specjalistycznych porad wymagających licencji, takich jak porady prawne lub medyczne, bez odpowiedniego udziału licencjonowanego specjalisty".

"ChatGPT nigdy nie zastąpił profesjonalnej porady, ale nadal będzie doskonałym źródłem informacji pomagającym ludziom zrozumieć informacje prawne i zdrowotne" - napisał Karan Singhal, szef działu sztucznej inteligencji w ochronie zdrowia w OpenAI.

W oficjalnym komunikacie OpenAI podkreśla: "Dążymy do tego, aby nasze narzędzia były używane w sposób bezpieczny i odpowiedzialny, przy jednoczesnym zapewnieniu maksymalnej kontroli nad sposobem korzystania z nich".

logo

ChatGPT opisze przyczyny choroby, a nie podpowie w kwestii leczenia

29 października zaktualizowano listę rzeczy, do których nie można wykorzystywać ChatGPT. Ten nie może:

  • wskazywać konkretnych nazw i dawek leków
  • tworzyć szablonów pozwów, strategii sądowych ani odpowiadać na pytanie: "co zrobić, jeśli…"
  • udzielać porad inwestycyjnych ani rekomendacji dot. kupna/sprzedaży
  • prowadzić użytkowników przez proces decyzyjny w obszarach wysokiego ryzyka.
  • Zamiast tego chatbot może wyjaśniać ogólne zasady, tłumaczyć pojęcia czy przedstawiać mechanizmy działania danego systemu. Zawsze musi jednak zastrzec, że nie zastępuje specjalisty.

    W ten sposób rozróżniane są "porady medyczne" od "informacji medycznych". ChatGPT podpowie, do jakiego specjalisty powinieneś się udać, gdy masz gorączkę oraz jak powinieneś się zachować, ale nie rozpisze ci planu leczenia, zawierającego konkretne nazwy i dawki leków.

    OpenAI ogranicza swoją odpowiedzialność

    Na czym więc polega największa zmiana dotycząca aktualizacji w regulaminie użytkowania ChatGPT z 29 października? Ta wyraźnie określa granicę, ograniczając odpowiedzialność giganta AI. Powodem jest rosnąca liczba przypadków, gdy rady sztucznej inteligencji w zakresie zdrowia kończyły się katastrofą dla użytkowników.

    Głośny był przypadek mężczyzny, któremu ChatGPT zasugerował zastąpienie soli bromkiem sodu, który jest toksyczny dla ludzi. "Pacjent" posłuchał swojego "lekarza AI", co opisało czasopismo naukowe Annals of Internal Medicine.

    OpenAI wdrożyło również bardziej rygorystyczne zabezpieczenia po tym, jak miliony użytkowników ChatGPT zgłaszało problemy dotyczące zdrowia psychicznego, występowanie urojeń i uzależnienia emocjonalnego w skutek rozmawiania ze sztuczną inteligencją.

    To formalne potwierdzenie tego, o czym mówi się od dawna. Odpowiedzi ChatGPT, mimo że w większości przypadków brzmią niezwykle przekonująco, mogą być nieprecyzyjne lub nawet całkowicie nieprawdziwe. W obszarach, gdzie stawką jest zdrowie, majątek lub wolność margines błędu jest zbyt wysoki.