OpenAI, Yapay Zeka Güvenlik Merkezi ile Şeffaflığı Artırıyor

OpenAI, yapay zeka modeli güvenlik değerlendirmelerinde şeffaflığı artırmak için yeni bir girişim başlattı. Şirket, modellerinin çeşitli güvenlik testlerindeki performansını sergileyen özel bir web sayfası olan Güvenlik Değerlendirmeleri Merkezi'ni tanıttı. Bu testler, zararlı içerik oluşturma, yetkisiz erişim (jailbreak) ve gerçek dışı bilgiler (halüsinasyonlar) gibi alanları kapsıyor.

OpenAI, merkezi düzenli olarak metriklerle güncellemeyi ve büyük model güncellemeleri için sonuçları paylaşmayı taahhüt ediyor. Bu sürekli şeffaflık, topluluk katılımını teşvik etmeyi ve genel yapay zeka güvenliğini iyileştirmeyi amaçlıyor.

Modellerimizin güvenlik sonuçlarını keşfetmek için bir kaynak olan Güvenlik Değerlendirmeleri Merkezi'ni sunuyoruz. Sistem kartları lansmanda güvenlik metriklerini paylaşırken, Merkez, güvenlik hakkında proaktif bir şekilde iletişim kurma çabalarımızın bir parçası olarak periyodik olarak güncellenecektir. https://t.co/c8NgmXlC2Y

— OpenAI (@OpenAI) May 14, 2025

OpenAI, model yeteneğini ve güvenliğini ölçmek için ölçeklenebilir yöntemler geliştirme konusundaki ilerlemesini paylaşma taahhüdünü vurguluyor. Şirket, bu değerlendirmeleri kamuya açık bir şekilde paylaşmanın, sistemlerinin güvenlik performansını zaman içinde netleştirmekle kalmayıp aynı zamanda yapay zeka alanında şeffaflığı artırmaya yönelik daha geniş topluluk çabalarını da destekleyeceğine inanıyor.

Bu hamle, OpenAI'ın güvenlik test prosedürleriyle ilgili son eleştirilerini takip ediyor. Şirket, bazı amiral gemisi modelleri için güvenlik testlerini aceleye getirdiği ve diğerleri için teknik raporlar yayınlamadığı iddialarıyla incelemeye tabi tutuldu. Bu artırılmış şeffaflık girişimi, bu endişeleri gidermeyi ve toplulukla güven oluşturmayı amaçlıyor.

OpenAI, zaman içinde merkeze ek değerlendirmeler eklemeyi planlıyor. Bu taahhüt, şirketin yapay zeka güvenliği ve şeffaflığında sürekli iyileştirmeye olan bağlılığını yansıtıyor.

GPT-4 güncellemesinin aşırı uyumlu yanıtlar nedeniyle yakın zamanda geri alınması, titiz testlerin ve topluluk geri bildirimlerinin önemini daha da vurguluyor. OpenAI, bazı modeller için isteğe bağlı bir alfa test aşaması da dahil olmak üzere gelecekte benzer olayları önlemek için değişiklikler yapma sözü verdi.