Uygunsuz Facebook gönderilerini kontrol etmek için AI’ya yardımcı olun

Facebook, sosyal medyada yapay zeka kullanımına karşı olduğunu her zaman çok net bir şekilde ortaya koymuştur. Şirketin geliştiricileri, bu teknolojinin daha normal şeyler için kullanılması gerektiğine inanıyor; Çünkü bunu yapma kabiliyeti var. Facebook geçtiğimiz günlerde bu hedefe ulaşmak için son hamlesini duyurdu ve kuralları ihlal etmiş olabilecek içeriği sınıflandırmak için makine öğrenimini kullanacağını ve nihai karar için insan kaynaklarını gözden geçirme sürecinde olduğunu söyledi.

Facebook’ta içerik nasıl kategorize edilir ve sıralanır

Kullanıcılar veya makine öğrenimi, şirket kurallarını ihlal ettiği düşünülen yayınları tanımlar. Bunlar arasında spam veya şiddet barındıran içerik ve Facebook politikalarını açıkça ihlal eden diğer seçenekler yer alır. Bu adımdan sonra tamamen net olan gönderiler otomatik olarak işlenecektir. Örneğin, bu platformun kurallarına tamamen aykırı bir gönderi yayınlanırsa, içeriği silme veya yayıncının hesabını bloke etme yöntemlerinden biri ile yanıtlanacaktır. Belirlenen görevlerin geri kalanı, insan gözlemciler için sıralanmıştır.

Facebook, dünya çapında bu çalışanların yaklaşık 15.000’ini istihdam etmektedir. Daha önce, şirket bu tür çalışanlara yetersiz destek verdiği için eleştirilmişti. Hatta Facebook’un bunları bu sosyal ağın platformuna ciddi zararlar verebilecek bir kısımda kullandığı söyleniyor. Görevleri, Facebook kurallarını ihlal etmiş olabilecek gönderileri ayıklamaktır. Hangi pozisyonların şirket kurallarını en çok ihlal edebileceğine karar verebilmeleri gerekir.

Sıralama sonrası süreçte yapay zeka kullanımı

Geçmişte, gözlemciler gönderileri az ya da çok kronolojik olarak bildirilmiş bir şekilde ele alıyorlardı. Şimdi Facebook, en önemli gönderilerin önce görüldüğünden emin olmak istediğini söylüyor ve onlara yardımcı olmak için makine öğrenimini kullanıyor. Gelecekte, bu kuyruğu sıralamak için farklı makine öğrenimi algoritmaları kullanılacak ve gönderilere üç kritere göre öncelik verilecek: virallik, önem derecesi ve kuralları çiğneme olasılığı.

Bu kriterlerin nasıl değerlendirildiği tam olarak belli değil; Ancak Facebook, amacın önce en savunmasız gönderilerle ilgilenmek olduğunu söylüyor. Bu nedenle, gönderi ne kadar viral olursa (ne kadar çok paylaşılır ve görülürse), o kadar hızlı ele alınacaktır. Facebook, gönderileri gerçek dünyadaki insanlara zarar verebilecek en önemli viral gönderiler olarak sıraladığını söylüyor. Bu kategorinin örnekleri arasında terörizm, çocuk istismarı veya kendine zarar verme ile ilgili gönderiler yer alır. Bu arada, spam kadar sinir bozucu gönderiler; Ancak zararlı değildirler, inceleme için en az öneme sahiptirler.

Ryan BarnesBir Facebook yöneticisi bir basın toplantısında gazetecilere şunları söyledi:

Tüm içerik ihlalleri yeniden insanca soruşturulur; Ancak daha iyi önceliklendirme için bu sistemden [آن فرایند] Kullanacağız.

Facebook, geçmişte makine öğrenimi filtrelerinin nasıl analiz edileceğine dair ayrıntıları paylaştı. Bu sistemler, aslında içerik değerlendirmeye kapsamlı bir yaklaşım olan WPIE adlı bir modeli içerir.

Bu, algoritmaların her bir gönderideki farklı öğeleri koordineli bir şekilde değerlendirdiği anlamına gelir. Aslında bu süreçte gönderideki resim, başlık, poster ve diğer unsurları aynı anda incelemeye ve bunlardan genel bir sonuç çıkarmaya çalışılır. Böylelikle sistem insanlar gibi hangi pozisyonların daha önemli olduğuna ve daha hızlı ele alınması gerektiğine karar verebilir.

Elbette bu şekilde eleştiriler var; Çünkü bazı insanlar yapay zekanın insanlar gibi yargılayamayacağına inanıyor. Bu nedenle, bu yöntemin eleştirmenleri, Facebook’un kurallarını ihlal eden gönderileri sıralamak için yapay zeka kullanmanın yapılacak doğru şey olmadığına inandıklarını belirttiler. Muhalefetlerinin nedenini açıklığa kavuşturmak için bu kişiler, sistemin zorlama ve yanlış bilgi içeren gönderiler hakkındaki yargısını örnek olarak kullandılar. Onlara göre yapay zeka, incelediği hassas konuyu asla tam olarak bilemez.

İlgili Makaleler:

Chris Palo, Facebook yazılım mühendisi, yapay zekanın sınırları olduğunu kabul eder; Ancak gazetecilere, teknolojinin yanlış içeriğin kaldırılmasında yine de rol oynayabileceğini söyledi. Palo şunları söyledi:

Bu sistem, genel hataları azaltmak için yapay zekayı insan gözlemcilere bağlamakla ilgilidir. Yapay zeka asla mükemmel olmayacak.

Şirketin makine öğrenimi sistem gönderilerinin yüzde kaçının yanlış sınıflandırıldığı sorulduğunda, Palo doğrudan bir cevap vermedi; Ancak Facebook’un yalnızca otomatik sistemlerin bireysel gözetim olmadan çalışmasına izin verdiğini söyledi; Çünkü insan incelemelerinden daha doğrudurlar. Dedi ki:

Facebook, bildirilen gönderileri kategorize etme sürecine daha fazla yapay zeka eklemeye devam edecek.

Gönderileri kategorize etmek için yapay zeka kullanımı ve insan kaynakları ile işbirliği hakkında ne düşünüyorsunuz? Bu kombinasyon, uygunsuz Facebook gönderilerini silme sürecinde yardımcı olabilir mi?

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir