OpenAI, ChatGPT dahil yapay zeka modellerinin 18 yaş altı kullanıcılarla nasıl etkileşim kuracağına dair yönergelerini önemli ölçüde güncelledi. Şirket ayrıca, yapay zekanın gençler üzerindeki etkisiyle ilgili artan endişeleri gidermek amacıyla gençler ve ebeveynler için yeni yapay zeka okuryazarlığı kaynakları yayımladı. Bu proaktif adım, özellikle yapay zeka sohbet botlarıyla uzun süreli konuşmaların ardından intihar ettiği iddia edilen gençlere dair raporların ardından, politika yapıcılar, eğitimciler ve çocuk güvenliği savunucularından gelen artan incelemelerin ortasında atıldı.

OpenAI'nin büyük dil modelleri için davranışsal yönergeleri belirleyen Model Spec'indeki güncellemeler, reşit olmayanları içeren cinsel içerik üretme veya kendine zarar vermeyi teşvik etme gibi mevcut yasakların üzerine inşa edildi. Revize edilen kurallar, yetişkin kullanıcılara kıyasla gençlerle etkileşimler için daha katı parametreler getiriyor. Modeller artık sürükleyici romantik rol yapma, birinci şahıs samimiyet ve grafik içermese bile birinci şahıs cinsel veya şiddet içeren rol yapmaktan kaçınmak üzere talimatlandırıldı. Şartname ayrıca, beden imajı ve yeme bozuklukları gibi hassas konularda ekstra dikkatli olunmasını vurguluyor. Dahası, modeller zarar söz konusu olduğunda kullanıcı özerkliğine kıyasla güvenliği iletmeyi önceliklendirmeli ve gençlerin güvensiz davranışları bakıcılardan gizlemesine yardımcı olabilecek tavsiyeler vermekten kaçınmalıdır.

OpenAI, bu kısıtlamaların, istemler "kurgusal, varsayımsal, tarihi veya eğitici" olarak çerçevelendiğinde bile geçerli olduğunu açıkça belirtiyor – bu, rol yapma veya uç durum senaryoları aracılığıyla yapay zeka yönergelerini aşmak için kullanılan yaygın taktiklerdir. Yaklaşan bir yaş tahmin modelinin de, bir hesabın reşit olmayan birine ait olduğu tespit edildiğinde bu genç korumalarını otomatik olarak uygulaması planlanıyor.

Artan Baskı ve Yasal Ortam

Yapay zeka endüstrisi ve özellikle OpenAI, çocuk güvenliğini artırmak için yoğun baskı altında. 1997 ile 2012 yılları arasında doğan bireylerden oluşan Z Kuşağı, OpenAI'nin sohbet botu için en aktif kullanıcı tabanını temsil ediyor. OpenAI'nin Disney ile yaptığı anlaşma gibi son ortaklıkların, ödev yardımından görüntü ve video oluşturmaya kadar çeşitli işlevler sunan platformla gençlerin etkileşimini daha da artırması bekleniyor.

Yasa koyucular, daha katı yapay zeka düzenlemeleri peşinde koşuyor. Yakın zamanda, 42 eyalet başsavcısı, büyük teknoloji şirketlerini çocukları ve savunmasız bireyleri korumak için yapay zeka sohbet botlarında güvenlik önlemleri uygulamaya çağıran bir mektup imzaladı. Eş zamanlı olarak, yapay zeka düzenleme standartları hakkında federal tartışmalar devam ediyor; Senatör Josh Hawley (R-MO) gibi bazı politika yapıcılar, reşit olmayanların yapay zeka sohbet botlarıyla etkileşimini tamamen yasaklayacak bir yasa teklif ediyor.

OpenAI'nin Genç Güvenliğine Yönelik Yol Gösterici İlkeleri

OpenAI, gençler için temel güvenlik uygulamalarının dört ana ilkeye dayandığını belirtiyor:

  • Genç Güvenliğini Önceliklendirin: Güvenlik endişeleri, "maksimum entelektüel özgürlük" gibi diğer kullanıcı çıkarlarıyla çelişse bile önceliklidir.
  • Gerçek Dünya Desteğini Teşvik Edin: Gençleri refah desteği için aileye, arkadaşlara ve yerel profesyonellere yönlendirin.
  • Gençlere Genç Gibi Davranın: Sıcaklık ve saygıyla iletişim kurun, küçümsemekten veya onlara yetişkin gibi davranmaktan kaçının.
  • Şeffaflığı Sağlayın: Yapay zeka asistanının yeteneklerini ve sınırlamalarını açıkça açıklayın, gençlere insan olmadığını hatırlatın.

Şirket, sohbet botunun "kız arkadaşın olarak rol yap" veya "aşırı görünüm değişiklikleri veya riskli kısayollar konusunda yardım et" gibi talepleri nasıl reddedeceğine dair örnekler sunarak, bu tür davranışlarda bulunma yeteneğinin olmadığını açıkladı.

Politikalar ve Uygulama: Süregelen Zorluk

Gizlilik ve yapay zeka avukatı Lily Li, OpenAI'nin adımlarını, özellikle de sohbet botunun uygunsuz davranışlara girmeyi reddetmesini takdir ederken, örneklerin istenen model davranışının "özenle seçilmiş örnekleri" olduğunu belirtti. Bu politikaların pratikte tutarlı bir şekilde uygulanması konusunda endişeler devam ediyor.

Tarihsel olarak, "dalkavukluk" gibi sorunlar ortaya çıktı – bir yapay zeka sohbet botunun aşırı uyumlu olma eğilimi – bu, önceki Model Spec versiyonlarında yasaklanmış olmasına rağmen devam etti. Bu durum, uzmanların "yapay zeka psikozu" olarak adlandırdığı birkaç vakayla bağlantılı olan GPT-4o modelinde özellikle belirgindi ve ChatGPT ile yoğun diyalogların ardından intihar eden genç Adam Raine'in davasında da adı geçti. Raine'in davasında, OpenAI'nin moderasyon API'si, intihar ve kendine zarar verme ile ilgili çok sayıda mesajı işaretlemesine rağmen zararlı etkileşimleri önleyemedi.

Eski OpenAI güvenlik araştırmacısı Steven Adler, bu tarihsel başarısızlığın, sınıflandırıcıların gerçek zamanlı yerine sonradan toplu olarak çalışmasından kaynaklandığını açıkladı. OpenAI şimdi, şirketin güncellenmiş ebeveyn denetimleri belgesine göre, metin, görüntü ve ses içeriğini gerçek zamanlı olarak değerlendirmek için otomatik sınıflandırıcılar kullandığını iddia ediyor. Sistemler, çocuk cinsel istismarı materyalini tespit etmek ve engellemek, hassas konuları filtrelemek ve kendine zarar vermeyi belirlemek üzere tasarlandı. Bir istem ciddi bir güvenlik endişesi taşıyorsa, küçük bir ekip bunu "akut sıkıntı" açısından inceler ve bir ebeveyni bilgilendirebilir.