Нейросеть ChatGPT дала американцу смертельно опасный совет
ИИ отправил американца на больничную койку
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS84L2JyYWluLWFydGlmaWNpYWwtaW50ZWxsaWdlbmNlLW1hY2hpbmUtbGVhcm5pbmctYmlnLWRhdGEtZGlnaXRhbC1mYWNlLTE2NDAxMTgtcHhoZXJlY29tLmpwZw.webp)
Фото: [pxhere.com]
60-летний житель США послушал совет нейросети ChatGPT заменить соль на бромид натрия и оказался в психиатрической больнице. Об инциденте сообщает портал Gizmodo.
В течение трех месяцев пенсионер соблюдал диету, которую ему помог составить искусственный интеллект. Мужчина решил исключить из своего рациона хлорид натрия и обратился за советом к ChatGPT. Чат-бот предложил пользователю несколько варианто. В однои из них ИИ посоветовал добавить бромид натрия, не уточниы, что он токсичен.
Через некоторое время у мужчины началась паранойя, дезориентация, галлюцинации, после чего у него развился психотический эпизод. Американец решил, что его отравил сосед. Второй припадок у него был в больнице. Он попытался сбежать, но был отправлен на принудительное лечение.
Повторный осмотр через две недели подтвердил стабильное состояние пациента.
Ранее эксперт Валинуров раскрыл влияние ИИ на рекрутинговую сферу.