Microsoft chat bot se trochu nepovedl, rychle se naučil rasismu.

Microsoft chat bot se trochu nepovedl, rychle se naučil rasismu. Tay, jak se chat bot jmenuje, teď musí podstoupit promazání. K nalezení na www.tay.ai  ale ve čtvrtek byl odstaven právě pro onu poněkud nepříjemnou epizodu. Viz Microsoft is deleting its AI chatbot’s incredibly racist tweets kde najdete hodně příkladů, ze kterých vám bude zřejmé, že to až tak legrace nakonec není.

2016-03-24 14_14_15-Meet Tay - Microsoft A.I. chatbot with zero chillscreen shot 2016-03-24 at 11.10.58screen shot 2016-03-24 at 09.50.46

Reklamy