OpenAI, bu yeni modeli herkesin erişimine açmayı planlıyordu. Bu, modelin sadece bir API üzerinden değil, doğrudan bilgisayarlara indirilebilecek şekilde paylaşılması anlamına geliyor. Ancak Altman, bu yaklaşımın büyük riskler barındırdığını vurguladı:
“Bir kez ağırlıklar yayımlandığında geri dönüşü yoktur. Bu nedenle daha fazla güvenlik değerlendirmesi yapılması şart.”
Altman’ın açıklamasına göre, yapay zekanın kötüye kullanılma potansiyeli – özellikle açık kaynaklı versiyonlarda – hâlâ yeterince denetlenebilir değil. Bu yüzden OpenAI, modelin topluma zararlı olabilecek senaryolarda kullanılmasını önlemek adına güvenlik kontrollerini sıkılaştıracak.
Güvenlik ve şeffaflık arasındaki denge
Teknoloji dünyasında, OpenAI’nin erteleme kararı önemli bir tartışmayı da gündeme taşıdı:
Bir yanda Meta gibi firmalar, yapay zekayı açık kaynak olarak geliştirerek topluluk katkısını teşvik ediyor.
Diğer yanda OpenAI gibi şirketler, güçlü modelleri merkezi olarak kontrol ederek kötüye kullanımı engellemeye çalışıyor.
Altman, her ne kadar açık kaynaklı geliştirmenin potansiyelini takdir etse de, güçlü modellerin sınırsız erişime açılmasının ciddi riskler doğurabileceğini savunuyor. Özellikle dezenformasyon, kötü amaçlı yazılım üretimi veya otomatik saldırı sistemleri gibi alanlarda, kötü niyetli kişiler bu modelleri kötüye kullanabilir.
Yeni tarih verilmedi
OpenAI, ertelenen modelin ne zaman yayımlanacağına dair kesin bir tarih açıklamadı. Ancak şirket, tüm güvenlik kontrolleri tamamlanmadan herhangi bir paylaşımda bulunmayacağını net bir şekilde belirtti.