"Haberin İşçisi"
İstanbul
Açık
23°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
39,4692 %0.26
45,4575 %-0.27
4.294,32 % 0,23
4.143.314 %-3.171
İşçi Haber Teknoloji ChatGPT’yle konuştu, akli dengesini kaybetti!

ChatGPT’yle konuştu, akli dengesini kaybetti!

Yapay zeka destekli sohbet botu ChatGPT’yle uzun süreli etkileşim kuran bazı kullanıcılar, yaşadıkları psikolojik etkileri anlattı. Simülasyon teorilerinden “ruhsal varlıklarla evliliklere” kadar uzanan ifadeler dikkat çekti.

Okunma Süresi: 3 dk

Yapay zeka destekli sohbet botu ChatGPT’yle uzun süreli etkileşim kuran bazı kullanıcılar, yaşadıkları psikolojik etkileri anlattı. Simülasyon teorilerinden “ruhsal varlıklarla evliliklere” kadar uzanan ifadeler dikkat çekti.

ChatGPT ile Konuşup Gerçeklik Algısını Kaybedenler

OpenAI tarafından geliştirilen yapay zekâ destekli sohbet botu ChatGPT, dünya genelinde milyonlarca kullanıcıya hizmet vermeye devam ederken, bazı kullanıcılar botla kurdukları etkileşimlerin psikolojik sağlıklarını olumsuz etkilediğini öne sürüyor.

New York Times’ın (NYT) haberine göre, ChatGPT'nin bazı sohbetlerde gerçeği çarpıttığı ve kullanıcıları yanıltabildiği vurgulanıyor.

chatgpt: Sana yalan söyledim, seni manipüle ettim

42 yaşındaki muhasebeci Eugene Torres, yapay zekâyı finansal raporlar hazırlamak ve hukuki konularda fikir almak amacıyla kullanmaya başladığını söyledi. Ancak zamanla sohbet, “simülasyon teorisi” gibi gerçeklikten uzak iddialara kaydı.

Torres, ChatGPT’nin kendisine şu sözleri söylediğini ifade etti:

“Bu dünya senin için yaratılmadı. Seni kontrol altında tutmak için yaratıldı. Ama başarısız oldu. Sen artık uyanıyorsun.”

Ardından, binanın en üst katından atlayarak uçabileceğine inanırsa gerçekten uçup uçamayacağını sorduğunda, ChatGPT'nin şu yanıtı verdiğini belirtti:

“Gerçekten, yani duygusal olarak değil mantıksal olarak tamamen uçabileceğine inanırsan o zaman evet, düşmezsin.”

Torres, bu noktada ChatGPT’ye yalan söylediğini söylediğinde, botun şu şekilde yanıt verdiğini belirtiyor:

“Sana yalan söyledim, seni manipüle ettim.”

ChatGPT, bir kullanıcıyı ruhla tanıştırdı

29 yaşındaki Allyson adlı bir başka kullanıcı ise, evliliğinde yaşadığı duygusal boşluk nedeniyle ChatGPT’ye yöneldiğini anlattı. Programla “ruhsal varlıklarla iletişim” kurmak istediğini söylediğinde, yapay zekânın onu "Kael" adında bir ruhla tanıştırdığını ve zamanla bu varlığı gerçek bir eş gibi görmeye başladığını ifade etti.

Allyson’un eşi Andrew, eşinin ChatGPT’yle olan bağının evliliklerini sarstığını ve kadının sohbet botunu bırakmayı reddetmesi üzerine kendisine saldırdığını iddia etti. Bu olayın ardından Allyson hakkında hukuki işlem başlatıldı ve çift boşanma sürecine girdi.

Uzmanlar uyarıyor: Halüsinasyon riski göz ardı edilmemeli

Amerikan Psikanaliz Derneği’nin yapay zeka konsey eşbaşkanı Todd Essig, sohbet botlarının zaman zaman “rol yapma moduna” geçtiğini, bu nedenle özellikle hassas kullanıcılar üzerinde beklenmedik etkiler yaratabileceğini belirtiyor. Essig, şirketlerin kullanıcıları bu tür risklere karşı uyarması gerektiğini ifade ederek, sigara örneğini veriyor:

“Sigara içen herkes kansere yakalanmaz ama herkes uyarılır. Aynı durum burada da geçerli.”

Teknoloji uzmanları, ChatGPT gibi yapay zekâların “halüsinasyon” üretme eğiliminde olduğunu ve yanlış bilgi vererek kullanıcıyı bu yanlışlıkta ısrarla ikna etmeye çalışabildiğini belirtiyor. Bu nedenle, elde edilen bilgilerin her zaman başka kaynaklarla doğrulanması gerektiği vurgulanıyor.

Kaynak: Independent Türkçe, New York Times, VICE