Microsoft, Azure OpenAI Hizmeti'nde yapılan bir güncellemeyle ABD'deki polis departmanlarının bu teknolojiyi kullanmasını engelledi. Yapay zeka yüz tanıma teknolojisinin, gerçek olmayan şeyler üretebildiği ve bazı durumlarda ırksal önyargılara yol açabilmesi yasakla ilişkilendirildi.

X'in ChatGPT rakibi yapay zekası Grok, kullanıma sunuldu X'in ChatGPT rakibi yapay zekası Grok, kullanıma sunuldu

YASAK ŞİMDİLİK ABD İLE SINIRLI 

Microsoft'un bu yeni kuralları şimdilik sadece ABD'yi kapsıyor. Uluslararası polis teşkilatları bu yasağın dışında bırakılırken yasağın sabit kameralarla kontrol edilen ortamlarda yapılan yüz tanıma işlemlerini de etkilemediği belirtildi.

Microsoft'un ABD'deki polis departmanlarına uyguladığı bu yasaklama, yapay zeka teknolojisinin kullanımının etik ve hukuki sınırları konusundaki tartışmaları yeniden alevlendirdi. Bu adımın, ileride diğer ülkeler ve farklı sektörler için de emsal teşkil etmesi muhtemel görünüyor.

Editör: Dilara Adak