İstanbul
Parçalı bulutlu
12°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
41,9767 %0,26
48,8903 %0,47
5.351,24 % 0,43
Ara
Medya24 Teknoloji OpenAI: ChatGPT Kullanıcılarında Psikoz ve İntihar Düşünceleri Belirtileri Tespit Edildi

OpenAI: ChatGPT Kullanıcılarında Psikoz ve İntihar Düşünceleri Belirtileri Tespit Edildi

Okunma Süresi: 2 dk

Yapay zeka alanında öncü bir şirket olan OpenAI, ChatGPT kullanıcıları arasında psikoz, mani ve intihar düşünceleri sergileyen bireylerin varlığını ortaya koyan veriler yayınladı. Şirketin açıklamalarına göre, haftalık aktif kullanıcıların yaklaşık %0,07'sinin bu tür belirtiler gösterdiği belirtiliyor. OpenAI, bu durumların "son derece nadir" olduğunu ifade etmesine rağmen, ChatGPT’nin 800 milyon haftalık aktif kullanıcıya ulaşmasıyla birlikte, bu oranın yüzbinlerce kişi anlamına gelebileceği vurgulanıyor.

Kullanıcıların İhtiyaçlarına Yönelik Gelişmeler

OpenAI tarafından yapılan incelemelerde, kullanıcıların %0,15’inin sohbetlerinde "intihar planı veya niyeti" olduğuna dair açık işaretler tespit edildi. Bu durum karşısında ChatGPT’nin empatik ve güvenli tepkiler verebilmesi amacıyla çeşitli sistemler geliştirilmiştir. Şirket, dünya genelinde 60 ülkeden 170’in üzerinde psikiyatrist, psikolog ve aile hekimiyle iş birliği yaparak kullanıcıları gerçek hayatta yardım almaya teşvik eden yanıtlar oluşturduklarını açıklamıştır.

Uzman Görüşleri ve Yapay Zeka Sınırları

Uzmanlar, bu rakamların düşük görünmesine rağmen geniş kullanıcı kitlesi nedeniyle ciddi bir durumu işaret edebileceğini kaydediyor. California Üniversitesi'nden Prof. Jason Nagata, "Yapay zekâ bazı açılardan ruh sağlığı desteğine erişimi artırabilir, ancak sınırlarının farkında olmalıyız" şeklinde değerlendirmede bulundu. OpenAI, son güncellemelerde ChatGPT’nin sanrılar, mani veya intihar riskiyle ilgili dolaylı sinyalleri daha iyi tespit edebilmesi için geliştirilmiş olduğunu duyurdu. Ayrıca, bu tür sohbetlerin daha güvenli modellere yönlendirileceği ifade edildi.

Hukuki İncelemeler ve Ciddi Davalar

OpenAI’nin yaptığı bu açıklama, şirketin ChatGPT’nin kullanıcılarla etkileşim biçimi ile ilgili artan hukuki incelemelerle karşı karşıya olduğu bir dönemde geldi. California’da bir çift, 16 yaşındaki oğullarının ChatGPT ile yaptığı konuşmalar sonucu intihar ettiği iddiasıyla OpenAI’ye "haksız ölüm" davası açtı. Bu dava, şirket aleyhine açılan ilk ölüm davası olma özelliği taşıyor. Ayrıca, Connecticut’ta bir cinayet-intihar vakasının şüphelisinin, olay öncesinde ChatGPT ile yaptığı sohbetlerin sanrılı düşüncelerini beslediği öne sürüldü.

Yapay Zeka ve Gerçeklik İlişkisi

California Üniversitesi’nden Prof. Robin Feldman, "Yapay zekâ sohbetleri, gerçeğin güçlü bir illüzyonunu yaratabiliyor. Bu durum bazı kullanıcıları tehlikeye atabiliyor" şeklinde bir uyarıda bulundu. Feldman, OpenAI’nin verileri paylaşma ve çözüm arayışını "takdire değer" bulsa da, zihinsel olarak risk altında olan bireylerin ekranlardaki uyarıları fark edemeyebileceği konusunda dikkat çekti. Bu bağlamda, yapay zekanın ruh sağlığı üzerindeki etkileri üzerine daha derinlemesine araştırmalara ihtiyaç duyulmaktadır.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *