28 Mar 2016 09:13 Son Güncelleme: 23 Kas 2018 18:25

Yapay zeka Twitter'da küfretmeyi öğrendi

Microsoft'un geliştirdiği yapay zeka yazılımı ırkçı ve tartışmalı siyasi yorumlar yapmaya başladı.

Microsoft'un geliştirdiği bir yapay zeka yazılımı, Twitter'da küfretmeye, ırkçı ve tartışmalı siyasi yorumlar yapmaya başladı.

Şirket, Tay adını verdiği chatbot için Twitter'da bir hesap açmış ve insanları onunla sohbete davet etmişti.

Chatbot'lar, internet ortamında yöneltilen soruları yanıtlayabilen, yapay zeka ürünü yazılımlar.

Bu projede 18-24 yaş grubunu hedefleyen Microsoft, Tay'in amacının "gündelik, esprili sohbetler yapmak" olduğu belirtmiş ve şöyle demişti:

"Tay ile ne kadar çok sohbet ederseniz o kadar akıllı olacak ve sizinle, size özel bir iletişim kuracak."

Ancak devreye girmesinin üzerinden 24 saat geçmeden Tay'a, Nazi sempatizanı, ırkçı ve soykırım destekçisi gibi mesajlar yazmak ve küfretmek “öğretildi."

Bunun üzerine Microsoft'un sohbetlere müdahale etmeye başladığı sanılıyor.

Şirket yetkilileri bunu açıkça doğrulamadı ancak "bazı düzenlemeler yaptıklarını" bildirmekle yetindi.

Bazı kullanıcılar ise Microsoft'un müdahalesini eleştirerek #justicefortay (#tayiçinadalet) kampanyası başlattı, yazılım devinden yapay zekanın "doğruyu ve yanlışı kendi kendine öğrenmesine izin vermesini" talep ettiler.