Facebook'tan Skandal Hata!
Facebook'un yapay zeka destekli algoritması, Birleşik Krallık merkezli tabloid The Daily Mail gazetesinde 27 Haziran 2020'de yayımlanan ve bir grup siyahi kişinin polis memurlarıyla yaşadığı tartışmanın yer aldığı videoyu izleyenlere "Primatlarla ilgili videoları görmeye devam edin" önerisinde bulundu.


Bunun "kabul edilemez bir hata" olduğunun belirtildiği açıklamada, bir daha benzer bir durumun yaşanmaması için algoritmanın geçici olarak durdurulduğu ve yeniden gözden geçirildiği ifade edildi.
Facebook sözcüsü Dani Lever, "Yapay zekamızda iyileştirmelere gitsek de mükemmel olmadığının farkındayız. Daha kat etmemiz gereken aşamalar var. Bu nahoş önerileri gören herkesten özür diliyoruz" dedi.
Benzer bir olay ABD'li teknoloji devi Google'ın yapay zeka sisteminde de yaşanmıştı.2015'te şirketin Photos adlı uygulamasında siyahi kişiler "goril" olarak etiketlenmiş, gelen tepkiler üzerine Google özür dilemişti.Microsoft'un yapay zeka destekli sohbet botu Tay ise 2016'da ırkçı hakaretler içeren tweetler atmaya başlamış, bu nedenle lansmanından sadece 16 saat sonra devre dışı bırakılmıştı
Yorum Yazma Kuralları
Lütfen yorum yaparken veya bir yorumu yanıtlarken aşağıda yer alan yorum yazma kurallarına dikkat ediniz.
Türkiye Cumhuriyeti yasalarına aykırı, suç veya suçluyu övme amaçlı yorumlar yapmayınız.
Küfür, argo, hakaret içerikli, nefret uyandıracak veya nefreti körükleyecek yorumlar yapmayınız.
Irkçı, cinsiyetçi, kişilik haklarını zedeleyen, taciz amaçlı veya saldırgan ifadeler kullanmayınız.
Türkçe imla kurallarına ve noktalama işaretlerine uygun cümleler kurmaya özen gösteriniz.
Yorumunuzu tamamı büyük harflerden oluşacak şekilde yazmayınız.
Gizli veya açık biçimde reklam, tanıtım amaçlı yorumlar yapmayınız.
Kendinizin veya bir başkasının kişisel bilgilerini paylaşmayınız.
Yorumlarınızın hukuki sorumluluğunu üstlendiğinizi, talep edilmesi halinde bilgilerinizin yetkili makamlarla paylaşılacağını unutmayınız.
Yorumlar
Kalan Karakter: