Искусственный интеллект от Amazon предложил ребенку смертельный челлендж

Голосовой помощник Алекса от Amazon предложил десятилетней девочке опасный для жизни челлендж. Об этом рассказала мама ребенка Кристин Ливдал в «Твиттере». По словам женщины, в ответ на команду «Скажи, что мне сделать» Алекса посоветовала ее дочери положить монетку между розеткой и зарядным устройством. При этом искусственный интеллект не предупредил, что это представляет смертельную опасность для девочки. Боже, мой 10-летний ребенок только что попросил Алексу о челлендже, и вот что она сказала: «Вот что я нашла в интернете. Челлендж простой — вставь зарядку от телефона в розетку, но не до конца. Затем прислони монетку к оголенным зубцам». Кристин Ливдал Если бы девочка последовала совету Алексы, то могла бы получить сильный удар током или спровоцировать пожар. К счастью, мама в это время была дома и успела вовремя остановить дочку. При этом позже ребенок заявил, что не стал бы принимать предложение голосового помощника, так как он «слишком умный для этого». Пользователи «Твиттера» поддержали Ливдал и пояснили, что искусственный интеллект анализирует и собирает весь пользовательский контент в Сети, однако его никто не фильтрует. Из-за этого ответы помощника иногда бывают шокирующими, но в Amazon заявили, что уже устранили проблему, которая спровоцировала инцидент с девочкой. Заглавное фото: daily.afisha.ru

Искусственный интеллект от Amazon предложил ребенку смертельный челлендж
© Cq.ru