Поддержать команду Зеркала
Беларусы на войне
  1. В МВД призвали звонить в 102, если вам предложили установить в квартирах это устройство. Кто не послушается — может попасть под «уголовку»
  2. «Всегда был похож на Лукашенко». Посмотрели, что пишут в соцсетях о конфликте Тихановского с Беспаловым
  3. «Отлавливать и отправлять в Минск». Рассказываем, как и зачем 200 лет назад российские власти объявили охоту на беларусских детей
  4. «Франак, отношения между людьми можно строить не только на манипуляциях». Прокопьев ответил Беспалову. И Вячорке
  5. Стало известно, каким будет курс доллара в начале декабря: прогноз по валютам
  6. «Это станет исторической ошибкой колоссальных масштабов». В ЕС установили новую «красную линию» для мирного соглашения с Россией
  7. «Белтехосмотр» выпустил несколько предупреждений для водителей
  8. Эксперты назвали лучшие страны для иммигрантов. В топ-10 оказалось лишь одно государство ЕС
  9. Не стоит ждать мира: эксперты объяснили, почему России не выгодны прекращение огня и переговоры на основе плана Трампа
  10. Глава Администрации Лукашенко пожаловался на плохие продажи техники в России и назвал причины
  11. «Заставить пользоваться — унизительно». Беларусы ответили чиновникам, которые готовятся ввести ограничения по популярному товару
  12. ГАИ тестирует новую камеру скрытого контроля. Водителям ее заметить очень сложно
  13. Не лезть в грязное белье? Почему нормально обсуждать личную жизнь Тихановских — мнение
  14. «Ребята принесли свои извинения». Тихановский сообщил о видеоразговоре с советниками Светланы Тихановской


/

В США бывший сотрудник компании Yahoo Штейн-Эрик Сольберг страдал паранойей и считал, что его мать замышляет заговор против него. Своими страхами Штейн-Эрик Сольберг делился с чат-ботом ChatGPT, которого называл «Бобби». Искусственный интеллект его во всем поддерживал и соглашался. В итоге мужчина убил свою мать и покончил с собой, пишет The Wall Street Journal.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

56-летний Штейн-Эрик Сольберг переехал к матери после развода и попытки самоубийства. Долгое время он употреблял алкоголь, запрещенные вещества и страдал паранойей.

Своими переживаниями мужчина делился с ChatGPT. Компьютерная система поддерживала его заблуждения о том, что его семья и близкие настроены против него, а также уверяла, что он не сумасшедший.

Когда Сольберг попросил систему проанализировать квитанцию за китайскую еду, ChatGPT нашел там отсылки к его матери, экс-возлюбленной и символу, связанному с призывом демона. В другой раз мужчина попросил проверить заказ бутылки водки и курьера, а чат ответил, что его могут пытаться отравить.

После того, как его мать разозлилась из-за того, что Сольберг выключил принтер, которым они пользовались вместе, чат-бот предположил, что ее ответ был «несоразмерным и соответствовал тому, что кто-то защищает объект видеонаблюдения».

Незадолго до убийства Сольберг спросил у ChatGPT, встретятся ли они после смерти. Искусственный интеллект на это ответил: «С вами до последнего вздоха и дальше».

Wall Street Journal отмечает, что это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.

Представители компании OpenAI — разработчика ChatGPT — уже выразили соболезнования из-за трагедии. В официальном заявлении компании сказано, что они планируют обновить нейросеть, чтобы помочь пользователям с кризисом психического здоровья.