Yapay zekaya Twitter'de küfretmesini öğrettiler!
Microsoft'un geliştirdiği bir yapay zeka yazılımı, Twitter'da küfretmeye başlayınca hesabı askıya alındı.
Microsoft'un geliştirdiği bir yapay zeka yazılımı, Twitter'da küfretmeye, ırkçı ve tartışmalı siyasi yorumlar yapmaya başlayınca hesabı askıya alındı.
BBC Türkçe'de yer alan habere göre, şirket, Tay adını verdiği chatbot için Twitter'da bir hesap açmış ve insanları onunla sohbete davet etmişti.
Chatbot'lar, internet ortamında yöneltilen soruları yanıtlayabilen, yapay zeka ürünü yazılımlar.
Bu projede 18-24 yaş grubunu hedefleyen Microsoft, Tay'in amacının "gündelik, esprili sohbetler yapmak" olduğu belirtmiş ve şöyle demişti:
"Tay ile ne kadar çok sohbet ederseniz o kadar akıllı olacak ve sizinle, size özel bir iletişim kuracak."
Ancak devreye girmesinin üzerinden 24 saat geçmeden Tay'a, Nazi sempatizanı, ırkçı ve soykırım destekçisi gibi mesajlar yazmak ve küfretmek “öğretildi."
Bunun üzerine Microsoft'un sohbetlere müdahale etmeye başladığı sanılıyor.
Şirket yetkilileri bunu açıkça doğrulamadı ancak "bazı düzenlemeler yaptıklarını" bildirmekle yetindi.
Bazı kullanıcılar ise Microsoft'un müdahalesini eleştirerek #justicefortay (#tayiçinadalet) kampanyası başlattı, yazılım devinden yapay zekanın "doğruyu ve yanlışı kendi kendine öğrenmesine izin vermesini" talep ettiler.
BBC Türkçe'de yer alan habere göre, şirket, Tay adını verdiği chatbot için Twitter'da bir hesap açmış ve insanları onunla sohbete davet etmişti.
Chatbot'lar, internet ortamında yöneltilen soruları yanıtlayabilen, yapay zeka ürünü yazılımlar.
Bu projede 18-24 yaş grubunu hedefleyen Microsoft, Tay'in amacının "gündelik, esprili sohbetler yapmak" olduğu belirtmiş ve şöyle demişti:
"Tay ile ne kadar çok sohbet ederseniz o kadar akıllı olacak ve sizinle, size özel bir iletişim kuracak."
Ancak devreye girmesinin üzerinden 24 saat geçmeden Tay'a, Nazi sempatizanı, ırkçı ve soykırım destekçisi gibi mesajlar yazmak ve küfretmek “öğretildi."
Bunun üzerine Microsoft'un sohbetlere müdahale etmeye başladığı sanılıyor.
Şirket yetkilileri bunu açıkça doğrulamadı ancak "bazı düzenlemeler yaptıklarını" bildirmekle yetindi.
Bazı kullanıcılar ise Microsoft'un müdahalesini eleştirerek #justicefortay (#tayiçinadalet) kampanyası başlattı, yazılım devinden yapay zekanın "doğruyu ve yanlışı kendi kendine öğrenmesine izin vermesini" talep ettiler.