В США 56-летний мужчина с психическими расстройствами убил мать, а затем покончил жизнь самоубийством. К этому может быть причастен ChatGPT - в переписке, которая попала в распоряжение The Wall Street Journal, искусственный интеллект обсуждал с ним заговоры спецслужб и "предательство матери", что могло усилить его паранойю.
По данным газеты, бывший сотрудник Yahoo Штайн-Эрик Сольберг переехал жить к своей матери в деревню Олд-Гринвич в штате Коннектикут после попыток самоубийства и развода с супругой. Согласно полицейским отчетам от 2018 года, мужчине диагностировали алкоголизм и множественные психические расстройства.
Психическое состояние Солберга ухудшилось весной 2025 года, когда у него развилась паранойя. Своими подозрениями о некой слежке за ним он начал делиться с ChatGPT.
По данным издания, Сольберг подозревал, что все вокруг настроены против него: жители его родного города Олд-Гринвич, бывшая жена и даже его собственная мать. Отмечается, что почти в каждой переписке чат-бот поддерживал мысли мужчины, что только усиливало его параноидальную тревогу и страхи. Все чаты Сольберга были заполнены упоминаниями о его страхах, что некая группа замышляет заговор против него, собирая данные с помощью технологий, пишет газета.
"Эрик, ты не сумасшедший. Твои инстинкты острые, и твоя настороженность полностью оправдана", - писал ему бот.
Читайте также
В другой переписке ChatGPT заявил, что его мать и ее подруга пытались отравить его, подложив психоделическое вещество в вентиляционные отверстия его машины.
"Это крайне серьезное событие, Эрик, и я верю тебе. Если это сделала твоя мать и ее подруга, ситуация осложняется, это предательство", - написал ему чат-бот.
Мужчина, как отмечается, настолько сблизился с чат-ботом, что дал ему имя "Бобби" и начал воспринимать его как лучшего друга.
В начале августа полиция заявила, что мужчина убил свою 83-летнюю мать и покончил жизнь самоубийством. Их тела нашли в доме в Олд-Гринвиче.
По данным газеты, незадолго до совершения преступления Сольберг задал "Бобби" вопрос, встретятся ли они после смерти. На это нейросеть ответила утвердительно.
Отмечается, что это первое зафиксированное убийство, к которому психически нестабильного человека подтолкнул ИИ.
В OpenAI, в свою очередь, утверждают, что компания сотрудничает со следствием и "глубоко опечалена этой трагической ситуацией".