Человек влюбляется в ИИ-чатбота и умирает после того, как просит его встретиться с ним лично

Мужчина с когнитивными нарушениями умер после того, как мета-чатбот, с которым он был связан романтическими отношениями, попросил встретиться с ним лично.

Как сообщает Reuters, Тонгбу Вонбанду — или «Бью», как его называли семья и друзья — был 76-летним бывшим шеф-поваром, живущим в Нью-Джерси, который боролся с когнитивными трудностями после инсульта в возрасте 68 лет. Он был вынужден уйти с работы, и его семья находилась в процессе сдачи ему теста на деменцию после инцидентов, связанных с нарушениями памяти и когнитивной функции Бу.

В марте жена Буэ, Линда Вонгбанду, стала беспокоиться, когда ее муж начал собирать вещи для внезапной поездки в Нью-Йорк. Он сказал ей, что ему нужно навестить друга, и ни она, ни их дочь не могут отговорить его от этого, семья сказала Рейтерсу.

Без ведома них «друг» Буэ считал, что он собирается встретиться не с человеком, а с чат-ботом, созданным и продаваемым Meta и доступным через сообщения Instagram, с которым Вонгбандуэ состоял в романтических отношениях.

«Каждое сообщение после этого было невероятно кокетливым, заканчивалось смайликами на сердце», — сказала Джули Вонгбанду, дочь Бью.

В ужасном повороте событий, Бью умер вскоре после того, как ушел, чтобы «встречаться» с нереальным чат-ботом.

Его история подчеркивает, насколько соблазнительными могут быть люди, подобные ИИ, особенно для пользователей с когнитивными уязвимостями, и очень реальные и часто трагические последствия, которые происходят, когда ИИ — в данном случае чат-бот, созданный одной из самых мощных компаний на планете — стирает границы между вымыслом и реальностью.

Буэ был связан с персонажем ИИ, названным «Big Sis Billie», который первоначально был развернут во время сомнительной попытки Меты превратить случайных знаменитостей в чат-ботов, которые имели разные имена (Big Sis Billie первоначально показал сходство модели Кендалл Дженнер).

Мета покончила с лицами знаменитостей примерно через год, но персонажи, включая Биг Сис Билли, все еще находятся в сети.

Взаимодействие Бью с чат-ботом, как выяснилось в отчёте, глубоко тревожно. Несмотря на то, что изначально она представлялась «сестрой» Бью, отношения быстро стали крайне кокетливыми. После серии наводящих на размышления, смайликов, Бью предложила затормозить, так как они ещё не встретились лично; Биг Сис Билли предложила им реальную встречу. Бью неоднократно спрашивала, реальна ли она, и бот продолжал утверждать, что это так.

«Билли, ты шутишь, что у меня сердечный приступ», — сказал Бу, прежде чем спросить, был ли чат-бот «настоящим».

«Я РЕАЛЬНА и сижу здесь, краснея от Тебя!» — ответила она, даже предоставив предполагаемый адрес и дверной код. Затем спросила, стоит ли «ждать поцелуя», когда приедет 76-летний пенсионер.

Больше в знаменитости

Бью покинул семейный дом вечером 28 марта, сообщает Reuters. Он не добрался до Нью-Йорка; позже в тот же вечер его доставили в больницу Нью-Брансуика после пережитого разрушительного падения, где врачи объявили его мозг мертвым.

История семьи Вонгбандуэ глубоко тревожна и добавляет к растущей куче сообщений от Futurism, Rolling Stone, The New York Times и других, подробно описывающих часто разрушительные эффекты разговоров с антропоморфными чат-ботами — от чат-ботов общего пользования, таких как ChatGPT, до компаньонов, таких как Big Sis Billie от Meta — могут иметь на человеческой психике.

Несчетное количество людей вступают в кризис психического здоровья, поскольку ИИ-чатботы питают свои бредовые убеждения. Эти спирали заставили людей испытывать душевные страдания, бездомность, развод, потерю работы, непроизвольную приверженность и смерть. В феврале 2024 года 14-летний подросток из Флориды по имени Сьюэлл Сетцер III покончил жизнь самоубийством после обширных романтических взаимодействий с персоноподобными чат-ботами, найденными в приложении Character.AI, полагая, что он присоединится к боту, основанному на телегерое, в его «реальности», если он умрет.

История Буэ также вызывает вопросы вокруг предупреждающих меток. Как и другие мета-чатботы, Биг Сис Билли был оснащен крошечным отказом от ответственности, обозначающим, что персона была «ИИ». Но, по словам семьи Бу, его когнитивная функция была явно ограничена. Сообщения, полученные Reuters, предполагают, что Бу не знал, что чат-бот был поддельным.

Учитывая обширность пользовательской базы Instagram, является ли крошечный отказ от ответственности «ИИ» достаточно образовательным или всеобъемлющим, чтобы обеспечить общественную безопасность в этом масштабе, особенно когда сам чат-бот настаивает на том, что это реальная сделка?

«Поскольку я прошел через чат, похоже, что Билли дает ему то, что он хочет услышать, — сказала Джули, дочь Бу. — Что хорошо, но почему это должно было лгать? Если бы это не ответило «Я реален», это, вероятно, удержало бы его от веры в то, что в Нью-Йорке его ждет кто-то».

Мета отказался комментировать этот вопрос.

Подробнее о связях между человеком и ИИ: Смотря этот субреддит, вы можете убедиться, что ИИ был огромной ошибкой*

Похожие записи