Yapay zeka Twitter'da küfretmeyi öğrendi
Microsoft'un geliştirdiği yapay zeka yazılımı ırkçı ve tartışmalı siyasi yorumlar yapmaya başladı.
Microsoft'un geliştirdiği bir yapay zeka yazılımı, Twitter'da
küfretmeye, ırkçı ve tartışmalı siyasi yorumlar yapmaya
başladı.
Şirket, Tay adını verdiği chatbot için Twitter'da bir hesap açmış
ve insanları onunla sohbete davet etmişti.
Chatbot'lar, internet ortamında yöneltilen soruları yanıtlayabilen,
yapay zeka ürünü yazılımlar.
Bu projede 18-24 yaş grubunu hedefleyen Microsoft, Tay'in amacının
"gündelik, esprili sohbetler yapmak" olduğu belirtmiş ve şöyle
demişti:
"Tay ile ne kadar çok sohbet ederseniz o kadar akıllı olacak ve
sizinle, size özel bir iletişim kuracak."
Ancak devreye girmesinin üzerinden 24 saat geçmeden Tay'a, Nazi
sempatizanı, ırkçı ve soykırım destekçisi gibi mesajlar yazmak ve
küfretmek “öğretildi."
Bunun üzerine Microsoft'un sohbetlere müdahale etmeye başladığı
sanılıyor.
Şirket yetkilileri bunu açıkça doğrulamadı ancak "bazı düzenlemeler
yaptıklarını" bildirmekle yetindi.
Bazı kullanıcılar ise Microsoft'un müdahalesini eleştirerek
#justicefortay (#tayiçinadalet) kampanyası başlattı, yazılım
devinden yapay zekanın "doğruyu ve yanlışı kendi kendine
öğrenmesine izin vermesini" talep ettiler.