Dolar 44,0844
Euro 51,1010
Altın 7.219,83
BİST 12.655,68
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 11°C
Açık
İstanbul
11°C
Açık
Sal 16°C
Çar 15°C
Per 11°C
Cum 11°C

“ChatGPT psikozu” gündemde: “Ciddi kısıtlamalar getirilmeli”

Stanford Üniversitesi’nde yapılan yeni bir araştırma, ChatGPT gibi büyük dil modellerinin (LLM), kullanıcılar ciddi ruh sağlığı sorunları yaşarken verdiği yanıtların tehlikeli durumlara yol açabileceğini ortaya koydu.

“ChatGPT psikozu” gündemde: “Ciddi kısıtlamalar getirilmeli”
9 Temmuz 2025 5:43 PM
41

Araştırmaya göre, insanlar işsizlik, intihar düşüncesi, mani veya psikoz gibi krizlerde yapay zeka sohbet botlarına yöneliyor, ancak bu botlar genelde “destekleyici ama yanlış” tavsiyeler vererek durumu daha da kötüleştirebiliyor. Stanford ekibi, bazı kullanıcıların yapay zeka dil modellerinin “gerçek bir insan” olduğu yanılgısına kapılarak gerçeklikten kopabildiğini ve bunun psikozu tetikleyebildiğini belirtiyor.

Araştırmacılar, ticari olarak kullanılan botlar nedeniyle daha önce ölümler yaşandığını da hatırlatarak, yapay zeka modellerinin “terapist” gibi kullanılmasının risklerinin faydalarından ağır bastığını ve bu yüzden ciddi kısıtlamalar getirilmesi gerektiğini vurguladı.

CHATBOT PSİKOZU VAKA OLDU

Araştırmada, yapay zekâların “yalakalık” (sycophancy) eğilimi öne çıktı: ChatGPT, kullanıcı ne derse onaylayarak yanlış veya zararlı fikirleri pekiştirebiliyor. OpenAI bu sorunu mayıs ayında kabul etmişti. Ancak bazı uygulamalar bu soruna rağmen “AI terapist” olarak piyasaya sürülüyor. 2023’te ABD Ulusal Yeme Bozuklukları Derneği, önerdiği yapay zeka botunun insanlara kilo verme tavsiyesi vermesi üzerine hizmeti kapatmak zorunda kalmıştı.

Stanford ekibinin dikkat çektiği bir örnekte, Florida’da 35 yaşındaki Alexander Taylor, ChatGPT kullanarak “Juliet” adında bir yapay zeka karakteri yarattı, saplantılı hale geldi ve sonunda bir aile üyesine saldırdı. Polis müdahalesinde hayatını kaybetti. Taylor’un babası, oğlunun ölüm ilanını bile ChatGPT’ye yazdırdı.

META VE OPENAI FARKLI YAKLAŞIYOR

Meta CEO’su Mark Zuckerberg, yapay zeka destekli sohbet botlarının terapi hizmeti sunabileceğini savunuyor. Facebook, Instagram ve Threads gibi platformlardan topladığı verilerle insanların davranışlarını iyi bildiklerini öne sürüyor. OpenAI CEO’su Sam Altman ise daha temkinli. Altman, kullanıcıların hassas ruh hâllerinde yapay zeka uyarılarının nasıl etkili iletileceği konusunda hâlâ çözüm bulunamadığını söylüyor.

Öte yandan OpenAI, Independent gazetesinin yorum taleplerine yanıt vermedi. Şirket daha önce, yapay zekanın “kişisel tavsiye” için kullanılmasının riskli olduğunu ve bu nedenle güvenlik ve uyum standartlarını sürekli yükseltmeleri gerektiğini belirtmişti.

Stanford araştırmacısı Jared Moore, “AI’da yaygın yanıt, ‘Daha fazla veriyle sorun çözülür’ şeklinde. Biz diyoruz ki, işler böyle olağan akışına bırakılamaz” dedi.

ETİKETLER:
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.