Cortana asistan uygulaması Twitter "trolleri" tarafından zor duruma sokuldu.
Microsoft’un Windows işletim sistemi cihazlar için geliştirdiği sanal asistan Cortana’nın küfür ettiği ve ırkçılık yaptığı tespit edildi. Konuyla ilgili derhal bir özür yayınlayan Microsoft, olayın aslını da açıkladı. Tay isimli sohbet kutusunu Microsoft satın aldığından beridir, burada yapılan sohbetler direkt olarak Cortana’ya aktarılmış. Twitter üzerinden birçok takipçisi bulunan Tayandyou hesabını birçok kişi ve grup “trol” getirmişler ve sorulara küfürlü, ırkçı ifade bulunan cevaplar vermişler.
Maalesef bu tür durumlar sık sık yaşanmakta. Google Çeviri için de benzer bir olay yaşanmıştı. Microsoft çözüm olarak Cortana’nın, Tay geliştirme projesini geçici olarak rafa kaldırdı. Tay’daki kara liste uygulamasını geliştirerek tekrar sunacak.