Нейросеть ChatGPT дала американцу смертельно опасный совет

ИИ отправил американца на больничную койку

Общество

Фото: [pxhere.com]

60-летний житель США послушал совет нейросети ChatGPT заменить соль на бромид натрия и оказался в психиатрической больнице. Об инциденте сообщает портал Gizmodo.

В течение трех месяцев пенсионер соблюдал диету, которую ему помог составить искусственный интеллект. Мужчина решил исключить из своего рациона хлорид натрия и обратился за советом к ChatGPT. Чат-бот предложил пользователю несколько варианто. В однои из них ИИ посоветовал добавить бромид натрия, не уточниы, что он токсичен.

Через некоторое время у мужчины началась паранойя, дезориентация, галлюцинации, после чего у него развился психотический эпизод. Американец решил, что его отравил сосед. Второй припадок у него был в больнице. Он попытался сбежать, но был отправлен на принудительное лечение.

Повторный осмотр через две недели подтвердил стабильное состояние пациента.

Ранее эксперт Валинуров раскрыл влияние ИИ на рекрутинговую сферу.