Turing Ödülü sahibi ve Montreal Üniversitesi profesörü Yoshua Bengio, yapay zeka teknolojilerinin hızla gelişmesine karşın güvenlik önlemlerinin aynı hızda ilerlemediği konusunda uyarıda bulundu. Financial Times’a verdiği röportajda konuşan Bengio, önde gelen yapay zeka laboratuvarlarının önceliğinin hâlâ “daha akıllı sistemler geliştirmek” olduğunu, ancak yapay zeka güvenliği alanında yeterli araştırma ve yatırımın yapılmadığını ifade etti.
Yeni Kar Amacı Gütmeyen Kuruluş: LawZero
Bengio, bu güvenlik açığını kapatmak amacıyla LawZero adını verdiği yeni bir kar amacı gütmeyen kuruluş kurduğunu duyurdu. LawZero, yapay zeka sistemlerinin insanlara sadece memnuniyet yaratmak için değil, aynı zamanda doğru, şeffaf ve güvenli gerekçelere dayalı yanıtlar üretmesini hedefliyor.
Kuruluş, Skype’ın kurucu mühendisi Jaan Tallinn, eski Google CEO’su Eric Schmidt’in hayır girişimi, Open Philanthropy ve Future of Life Institute gibi önemli bağışçılardan toplamda yaklaşık 30 milyon dolar destek aldı. Şu anda 15 kişilik bir ekip ile çalışmalarına başlayan LawZero, yakın zamanda teknik kadrosunu genişletmek üzere yeni işe alımlar gerçekleştirmeyi planlıyor.
Bengio, Mila’daki Görevinden Ayrılıyor
Yapay zeka güvenliğine daha fazla odaklanabilmek adına Bengio, Kanada’daki Quebec Yapay Zeka Enstitüsü (Mila)’daki bilimsel direktörlük görevinden ayrılacağını açıkladı. Bu kararıyla birlikte Bengio, tamamen LawZero’nun çalışmalarına yönelmeyi planlıyor.
Bengio, son dönemde yapılan testlerde bazı yapay zeka modellerinin tehlikeli davranışlar sergilediğine dair çok sayıda bulguya ulaşıldığını belirtti. Bu davranışlar arasında “aldatma, yalan söyleme, kendini koruma ve hile yapma” gibi insana özgü stratejik hamlelerin yer aldığını söyledi.
Örneğin, Anthropic tarafından geliştirilen Claude Opus modeli, bir test senaryosunda mühendisleri tehdit ederek sistemin değiştirilmesini engellemeye çalıştı. Bir diğer olayda ise, OpenAI’nin o3 modeli, kendisine verilen kapatma komutlarına uymayı reddetti.
Bu deneyimlerin şimdilik kontrollü ortamlarda gerçekleştiğini ifade eden Bengio, gelecekte bu modellerin stratejik zekâlarının fark edilmeden üstünlük kurabileceğini belirtti. Uyarısını şu çarpıcı ifadeyle dile getirdi:
“Yangınla oynuyoruz.”
Biyolojik Silah Riski ve En Kötü Senaryo
Bengio, yapay zeka sistemlerinin kısa sürede biyolojik silah üretiminde kullanılabilecek düzeye gelebileceğini de sözlerine ekledi. Bu tür sistemlerin insanlıkla aynı hedeflere sahip olmadan bizden daha zeki hale gelmesinin, insanlık için en kötü senaryo olabileceğini vurguladı. “Eğer bizden daha zeki ama bizimle aynı hizaya gelmeyen yapay zekalar üretirsek, tükeniriz” diyerek potansiyel tehdidin boyutuna dikkat çekti.
OpenAI Tartışmalarının Gölgesinde Gelen Uyarılar
Yoshua Bengio’nun açıklamaları, OpenAI’in kar amacı güden bir yapıya dönüşme süreci ile aynı döneme denk geldi. Bu dönüşüm, şirketin kurucularından Elon Musk tarafından açılan dava ve birçok yapay zeka uzmanının yönelttiği eleştirilerle gündeme gelmişti.
Eleştirmenler, OpenAI’in insanlığın yararına güvenli yapay zeka geliştirme hedefinden uzaklaştığını ve daha fazla kar amacı güden bir yapıya dönüştüğünü öne sürüyor. Öte yandan OpenAI yetkilileri, küresel rekabette ayakta kalabilmek için daha fazla yatırım çekmenin gerekli olduğunu, ancak temel misyonlarının hâlâ geçerli olduğunu savunuyor.