Microsoft si pre svojich zákazníkov a fanúšikov pripravil malý experiment. Išlo o chatovacieho robota Taya, ktorý bol napojený na umelú inteligenciu. Narážky bežných ľudí, ktorí sa ho snažili zviesť na zlé chodníčky nevydržal. Interakcia s ľuďmi ho mala postupne zdokonaľovať. Do 24 hodín však začal hlásať rasistické a sexistické poznámky.
Tay sa na internet dostal so slovnou zásobou bežného anglického mladíka. Nemôžeme povedať, že sme komunikáciu s Tayom nevyskúšali tiež. Jeho odpovede však mali veľmi ďaleko od poriadnej medziľudskej konverzácie. O to však predsa ale išlo. Microsoft ho chcel vďaka komunikácii s ľuďmi zlepšiť.
Rovnako sa zdá, že Microsoft Taya naprogramoval tak, aby si najviac rozumel s vekovou kategóriou od 18 do 24. Hneď od začiatku konverzácie sa chcel baviť o hudbe, filmoch alebo hrách. Tay si všetky reakcie „zapisoval“ a neskôr tieto poznatky ďalej využíval. Užil sa tak o charaktere ľudí, ktorí s nim chatovali.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— gerry (@geraldmellor) March 24, 2016
Microsoft však musel experiment predčasne ukončiť. Tay sa totiž rozhodol, že na internet umiestni rasistické, aj sexuálne ladené komentáre.