Meta'nın yapay zeka geliştirmelerini hızlandırdığı ve Superintelligence Lab'ının 2026'nın ilk yarısında piyasaya sürülmesi planlanan yeni görüntü, video ve metin tabanlı yapay zeka modelleri üzerinde çalıştığı bildiriliyor. The Wall Street Journal'a göre, bu iddialı projeler arasında dahili olarak "Mango" kod adlı bir görüntü ve video modeli ile "Avocado" olarak bilinen yeni bir metin tabanlı model yer alıyor.
Bu gelişmiş yapay zeka sistemlerinin yol haritasının, Meta'da Perşembe günü düzenlenen dahili bir Soru-Cevap oturumunda Scale AI'ın kurucu ortağı ve Meta'nın Superintelligence Lab'ının başkanı Alexandr Wang ile baş ürün sorumlusu Chris Cox tarafından açıklandığı bildirildi.
Wang, "Avocado" metin modelinin kodlama görevlerinde üstün başarı göstermek üzere geliştirildiğini vurguladı. Ayrıca, laboratuvar, görsel bilgiyi anlama, muhakeme etme, planlama yapma ve akla gelebilecek her senaryoda eğitime ihtiyaç duymadan otonom olarak hareket etme yeteneğine sahip "dünya modellerini" araştırıyor.
Bu agresif hamle, Meta'nın OpenAI, Anthropic ve Google gibi rakiplerinin gerisinde kaldığı rekabetçi yapay zeka ortamında yeniden zemin kazanmaya çalışmasıyla geliyor. Şirketin yapay zeka bölümü bu yıl liderlik değişiklikleri ve en iyi araştırmacıları işe alma çabaları da dahil olmak üzere önemli yeniden yapılanmalardan geçti. Bu işe alım çabalarına rağmen, Meta Superintelligence Labs'a (MSL) katılan bazı araştırmacıların şirketten ayrıldığı bildirildi.
Bu zorluklara ek olarak, Meta'nın baş yapay zeka bilimcisi Yann LeCun, geçen ay kendi startup'ını kurmak üzere ayrıldığını duyurdu.
Şu anda Meta, henüz gerçekten "kazanan" bağımsız bir yapay zeka ürünü piyasaya sürmedi. Mevcut Meta AI asistanının kullanım rakamları, büyük ölçüde milyarlarca kullanıcıya hizmet veren Meta'nın geniş sosyal ağlarının arama çubuklarına entegrasyonuyla destekleniyor.
Sonuç olarak, Meta Superintelligence Labs'tan çıkan bu ilk projelerin ve modellerin başarısı, şirketin hızla gelişen yapay zeka sektöründeki gelecekteki konumu için hayati önem taşıyacak.









