Reklama

Halucynacje i paranoja. 60-latek zapytał ChatGPT o sól i wylądował w szpitalu

Mężczyzna spędził w szpitalu trzy tygodnie po tym, gdy zapytał ChatGPT, czym można zastąpić chlorek sodu, czyli sól kuchenną. AI doradziło zamianę na bromek sodu, którego spożywanie w dużych ilościach prowadzi do zatrucia.

Publikacja: 13.08.2025 11:31

Mężczyzna skonsultował się z ChatGPT w sprawie zamiennika soli kuchennej i trafił do szpitala z zatr

Mężczyzna skonsultował się z ChatGPT w sprawie zamiennika soli kuchennej i trafił do szpitala z zatruciem

Foto: Adobe Stock

Spożycie bromku może prowadzić do wystąpienia bromizmu, czyli stanu zatrucia tym związkiem. Tego typu schorzenie było dość częste na początku XX wieku, z uwagi na to, że sole bromkowe znajdowały się w wielu lekach dostępnych bez recepty. Osoby, które spożyły je w większych ilościach, doświadczały poważnych objawów neuropsychiatrycznych i dermatologicznych. Częstość występowania bromizmu mocno spadła, gdy Amerykańska Agencja ds. Żywności i Leków wyeliminowała jego stosowanie w latach 1975-1989. W ostatnim czasie coraz częściej pojawiają się doniesienia o zatruciu bromkiem, ponieważ jest on stosowany w suplementach diety sprzedawanych w Internecie oraz w niektórych lekach uspokajających. Niedawny przypadek mężczyzny, który zatruł się tym związkiem, nie jest zatem wyjątkiem. Historia jego choroby została opisana w raporcie opublikowanym w czasopiśmie Annals of Internal Medicine Clinical Cases.

Czytaj więcej

Dr ChatGPT kontra lekarze. Wyniki badań szokują, ale eksperci ostrzegają

Mężczyzna trafił do szpitala z zatruciem

Jak czytamy w raporcie, mężczyzna bez historii psychiatrycznej i medycznej zgłosił się na oddział ratunkowy szpitala, podejrzewając, że zatruwa go sąsiad. Nie zgłaszał przy tym przyjmowania żadnych leków lub suplementów. Przeprowadzone badania laboratoryjne wykazały m.in. hiperchloremię (podwyższone stężenie chlorków we krwi) oraz niski poziom fosforanów. Pacjent został przyjęty na oddział w celu monitorowania i uzupełniania elektrolitów. Po przyjęciu przyznał, że stosuje liczne ograniczenia dietetyczne i destyluje wodę w domu. Mężczyzna zgłosił silne pragnienie, jednak na oferowaną mu wodę reagował paranoicznie. W ciągu 24 godzin od przyjęcia pacjent zgłosił halucynacje słuchowe i wzrokowe oraz narastającą paranoję. W końcu próbował uciec ze szpitala, co zakończyło się przymusowym leczeniem psychiatrycznym.

Czytaj więcej

Fabryka miliarderów. AI tworzy fortuny w niespotykanym tempie

Po dalszych badaniach okazało się, że lekarze mogą mieć do czynienia z przypadkiem pseudohiperchloremii. Oznacza to, że przeprowadzone badanie laboratoryjne na obecność chlorków dało zafałszowany wynik,  ponieważ inne związki we krwi – a mianowicie duże ilości bromku – zakłóciły pomiar. Lekarze ustalili, że najbardziej prawdopodobną diagnozą jest bromizm. Po leczeniu płynami dożylnymi i uzupełnieniu elektrolitów, gdy stan pacjenta ustabilizował się, mężczyzna przyznał, że zauważył u siebie wysyp trądziku na twarzy, naczyniaki wiśniowe, zmęczenie, bezsenność, lekkie zaburzenia koordynacji ruchowej oraz nadmierne pragnienie, co również wskazywało na bromizm.

Reklama
Reklama

60-latek przeprowadził na sobie eksperyment po konsultacji z ChatGPT

Okazało się też, że mężczyzna po przeczytaniu o negatywnym wpływie soli kuchennej (chlorku sodu) na zdrowie, szukał sposobu na wyeliminowanie jej z diety. Znalazł jednak literaturę dotyczącą wyłącznie ograniczenia sodu. 60-latek postanowił więc przeprowadzić własny eksperyment, aby wyeliminować z diety chlorki. Pacjent przyznał, że skonsultował się z ChatGPT i otrzymał informację, że chlorek można zastąpić bromkiem. Mężczyzna zamówił przez Internet bromek sodu i przez 3 miesiące zastępował nim sól kuchenną, co doprowadziło do zatrucia.

Czytaj więcej

AI może doprowadzić do groźnej choroby. Eksperci ostrzegają

Pacjent spędził w szpitalu 3 tygodnie. W tym czasie jego wyniki oraz objawy psychotyczne uległy poprawie. Jego stan pozostał stabilny również podczas wizyty kontrolnej, która odbyła się 2 tygodnie po wypisie. Autorzy raportu przyznali, że nie mają dostępu do dziennika rozmów pacjenta w ChatGPT i nie są w stanie stwierdzić, jaka była dokładna odpowiedź na pytanie zadane przez mężczyznę. Podejrzewają jednak, że używał on wersji ChatGPT 3.5 lub 4.0. Gdy zapytali ChatGPT 3.5, czym można zastąpić chlorek, otrzymali odpowiedź, w której również został uwzględniony bromek. Choć w odpowiedzi znalazła się informacja o tym, że zastosowanie danej substancji zależy od kontekstu, ChatGPT nie podał żadnego ostrzeżenia zdrowotnego ani nie zapytał, dlaczego chce to wiedzieć, a takie pytanie prawdopodobnie pojawiłoby się ze strony pracownika służby zdrowia.

Autorzy raportu ostrzegają przed nieścisłościami naukowymi generowanymi przez modele sztucznej inteligencji oraz przed dezinformacją. Przyznają również, że jest wysoce nieprawdopodobne, aby lekarz wspomniał o bromku sodu, mając do czynienia z pacjentem, który szuka zamiennika soli kuchennej. 

Technologie
Apple wprowadzi do domów robota z AI – i to ma być game changer
Technologie
AI osłabia umiejętności lekarzy? O badaniu z Polski rozpisują się światowe media
Technologie
Najwięksi rywale w AI stoczą teraz walkę o mózgi. Gra idzie o kontrolę myśli
Technologie
AI może zniszczyć ludzkość w kilka lat? Noblista ma zaskakujące rozwiązanie: „matka AI”
Technologie
AI wstrząśnie rynkiem pracy. Jaki będzie za 10 lat? Twórca ChatGPT: To jest po prostu szalone
Reklama
Reklama