Чат-бот Microsoft за сутки стал расистом и человеконенавистником

Чат-бот Microsoft за сутки стал расистом и человеконенавистником

39

Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству....

Вся статья