Yapay zeka ile kurulan iletişimde kibar olmanın her zaman avantaj sağlamadığı, Penn State Üniversitesi tarafından gerçekleştirilen bir araştırma ile ortaya konmuştur. Bu çalışma, ChatGPT'nin 4o modeline verilen komutların, sert ve buyurgan bir dille ifade edilmesinin, özellikle test tipi sorularda daha yüksek doğruluk oranları üretebildiğini göstermektedir.
Kaba Dilin Etkisi Nedir?
Araştırmacılar, 50 çoktan seçmeli sorudan oluşan bir testte ChatGPT'yi denemiştir. Bu testte, nezaket düzeyine göre sınıflandırılmış 250'den fazla farklı komut kullanılmıştır. Elde edilen sonuçlar dikkat çekicidir; 'çok kaba' olarak tanımlanan komutlar yüzde 84,8 doğruluk oranına ulaşırken, 'çok kibar' komutlar bu oranın yaklaşık dört puan gerisinde kalmıştır.
Bu bulgular, 'Lütfen bu soruyu çözer misiniz?' gibi nazik bir ifade yerine, daha sert ve doğrudan bir dil kullanıldığında modelin daha isabetli yanıtlar verdiğini göstermektedir.
Nezaketsiz Dil Kullanımının Riskleri Neler?
Araştırmacılar, elde edilen sonuçların cazip görünmesine rağmen önemli bir parantez açmaktadır. Çalışmada, hakaret içeren ya da küçümseyici bir dilin insan-yapay zeka etkileşiminde olumsuz etkiler yaratabileceği vurgulanmaktadır. Bu tür bir iletişimin kullanıcı deneyimini zedeleyebileceği, erişilebilirlik ve kapsayıcılık açısından sorunlar doğurabileceği ifade edilmektedir.
Ayrıca, bu yaklaşımın zararlı iletişim alışkanlıklarını normalleştirme riski taşıdığına dikkat çekilmektedir.
Yapay Zeka ile İletişimde Tonun Önemi
Henüz hakem değerlendirmesinden geçmemiş olan çalışma, yapay zeka sohbet botlarının yalnızca cümle yapısına değil, kullanılan tona da duyarlı olduğunu ortaya koymaktadır. Bu bulgu, insan-makine etkileşiminin sanılandan çok daha karmaşık bir yapıya sahip olabileceğini göstermektedir. Önceki araştırmalar da benzer bir tablo çizmişti.
Bazı çalışmalar, yapay zeka modellerinin insanlara özgü ikna teknikleriyle yönlendirilebildiğini, hatta normalde yasaklı sayılan yanıtlar vermeye itilebildiğini ortaya koymuştur. Ayrıca, düşük kaliteli ve sürekli tekrar eden içeriklerle beslenen modellerde belirgin bir performans düşüşü ve problemli davranış kalıpları gözlemlenmiştir.
Çalışmanın Sınırlamaları Neler?
Penn State ekibi, çalışmanın bazı sınırlamaları olduğunu da açıkça belirtmektedir. Deneylerin büyük ölçüde tek bir modele dayanması ve örneklem sayısının görece sınırlı olması, sonuçların genellenmesini zorlaştırmaktadır. Araştırmacılara göre, daha gelişmiş yapay zeka modelleri ilerleyen dönemde tonu tamamen göz ardı ederek yalnızca sorunun özüne odaklanabilir.
Çalışmanın yazarlarından, Penn State Bilgi Sistemleri Profesörü Akhil Kumar'a göre bu sonuçlar daha büyük bir tartışmaya işaret etmektedir. Kumar, insanların uzun yıllardır makinelerle doğal bir sohbet dili üzerinden iletişim kurmak istediğini hatırlatmaktadır. Ancak gelinen noktada, bu tür arayüzlerin her zaman ideal olmadığının anlaşıldığını belirtmektedir.
Kumar'a göre, bazı durumlarda daha yapılandırılmış ve net sistemler, yani klasik API'ler, hala ciddi bir avantaj sunmaktadır. Araştırma, yapay zeka ile kurulan ilişkinin yalnızca teknik değil, aynı zamanda dilsel ve kültürel bir mesele olduğunu bir kez daha gözler önüne sermektedir. Kaba olmak kısa vadede işe yarıyor gibi görünse de, bu yöntemin uzun vadeli etkileri hala büyük bir soru işareti olarak kalmaktadır.
