Издание Bleeping Computer обратило внимание на жуткую историю, которой поделилась в Twitter пользовательница Кристин Ливдал (Kristin Livdahl). Виртуальный ассистент Alexa предложил ее десятилетней дочери опасный для жизни челлендж.
Дело в том, что помощнику можно задать вопрос «Tell me a challenge to do», и в ответ тот обычно предлагает решить какую-то простую задачку или ответить на вопрос викторины. Однако, после того как девочка попросила у Alexa какой-нибудь челлендж, ИИ ответил ей следующее:
Ливдал рассказывает, что находилась в комнате в тот момент и «буквально закричала: “нет, Alexa, нет!”, как будто это была собака» (в английском языке команда «фу!» звучит как «off!» или «no!»).
Журналисты поясняют, что виртуальные помощники обычно