LinkedIn, algoritması hakkındaki büyüyen bir tartışmayı ele alıyor. Bu tartışma, kullanıcıların gönderi erişiminde önemli bir cinsiyet yanlılığı olduğunu iddia etmelerinin ardından ortaya çıktı. Bu kullanıcılar, erkek profillerinden paylaşılan içeriğin, kadın profillerinden yapılan aynı gönderilere kıyasla önemli ölçüde daha fazla gösterim aldığını öne süren deneyler yaptılar.
Doğaçlama testler, kadınların LinkedIn profil resimlerini ve adlarını erkek kimliklerine dönüştürmesini ve ardından daha önce kadın kullanıcılar olarak paylaştıkları içeriğin aynısını paylaşmasını içeriyordu. Bildirilen sonuçlar önemli ölçüde farklılık gösterdi; bazı kullanıcılar, erkek profili altında paylaşılan gönderilerde kadın profiline kıyasla yüzde 700'e kadar daha fazla gösterim gözlemledi. #wearthepants etiketi altındaki gönderilerin yaygınlığı, bu endişelerin ne kadar geniş bir alana yayıldığını daha da vurgulamaktadır.
Artan spekülasyonlara yanıt olarak LinkedIn, resmi olarak tartışmayı ele aldı ve kullanıcı cinsiyetinin algoritmik hesaplamalarında bir faktör olmadığını belirtti. LinkedIn'in mühendislik ekibinden Sakshi Jain, platformun duruşunu şöyle açıkladı:
“Algoritmamız ve yapay zeka sistemlerimiz, içerik, profil veya gönderilerin Akış'taki görünürlüğünü belirlemek için demografik bilgileri (yaş, ırk veya cinsiyet gibi) bir sinyal olarak kullanmaz. Ürün ve mühendislik ekiplerimiz bu gönderilerin ve karşılaştırmaların birçoğunu test etti ve farklı gönderiler farklı etkileşim seviyeleri alsa da, dağıtımlarının cinsiyet, zamirler veya başka herhangi bir demografik bilgiden etkilenmediğini gördük.”
Kullanıcıların neden bu tür farklılıklar gözlemleyebileceğine değinen Jain, gönderi erişimini etkileyen çok sayıda faktör olduğunu ve farklılıkları tek bir nedene bağlamanın zor olduğunu açıkladı. Akış güncellemelerinin doğrudan karşılaştırmasının genel erişimi doğru bir şekilde temsil etmeyebileceğini veya haksız muamele anlamına gelmeyebileceğini ekledi. Ayrıca, LinkedIn'de günlük içerik üretimindeki hızlı büyüme, dikkat çekmek için artan rekabet anlamına geliyor ve içerik oluşturucular için hem daha fazla zorluk hem de fırsat sunuyor.
Bu, LinkedIn'e göre, bir gönderinin paylaşıldığı günün saati, o anda aktif olan belirli kullanıcılar ve içeriğin doğal çekiciliği gibi unsurların, cinsiyet gibi demografik ayarlardan ziyade, gönderinin erişimine ve gösterimlerine katkıda bulunduğunu göstermektedir.
Kullanıcılar tarafından yapılan deneylerde hesaba katılmayan bir başka potansiyel faktör de LinkedIn kullanıcılarının kendi içsel önyargıları olabilir. Algoritmik etkiden bağımsız olarak, kullanıcıların erkek profilinden gelen içerikle kadın profilinden gelen içeriğe göre daha fazla etkileşim kurmaya eğilimli olmaları olasıdır. Bu tür insan önyargısı, ölçülmesi veya düzeltilmesi zor olsa da, gözlemlenen etkileşim farklılıklarına katkıda bulunabilir.
LinkedIn, hiçbir kullanıcı grubunun "bir diğerine göre sistematik olarak daha düşük sıralanmamasını" sağlamak ve herkes için fırsatları en üst düzeye çıkarmak amacıyla dahili testler yaptığını belirtiyor. Jain ayrıca, platformun "bir demografik grup için Akış kalitesinin sistematik olarak diğerinden daha kötü olup olmadığını, örneğin kadınların erkeklere kıyasla daha fazla alakasız akış öğesi görüp görmediğini" test ettiğini kaydetti.
LinkedIn, sisteminde kadın kullanıcıları dezavantajlı duruma düşürecek herhangi bir cinsiyet ağırlıklandırmasını kesinlikle reddederken, demografiye özel akış kalitesini aktif olarak test etmesi, platformun bu deneyimleri ölçtüğünü ve izlediğini göstermektedir. Bu, isterse LinkedIn'in farklı gruplar için gönderilerin erişimini etkilemek üzere algoritmasını potansiyel olarak ayarlayabileceği anlamına gelir.
Sonuç olarak LinkedIn, sistemlerinin tüm kullanıcılar için ekonomik fırsatları en üst düzeye çıkarmak üzere tasarlandığını belirtiyor. Daha fazla kullanıcı endişelerini dile getirmeye devam ettikçe, bu konunun daha fazla ilgi görüp görmeyeceğini görmek ilginç olacak, ancak şimdilik LinkedIn, algoritmik sistemlerinde cinsiyet yanlılığı olmadığı iddiasının arkasında duruyor.








