История ужасов нависла, когда дети получают начиненных животных на основе ИИ

От жуткого «ИИ» Стивена Спилберга (2001) до M3GAN (2022) игрушки, пропитанные искусственным интеллектом, были источником увлечения и террора в поп-культуре на протяжении десятилетий.

Теперь, перед лицом всех этих предостерегающих историй, новый класс смутно угрожающих болтливых игрушек продается в Интернете, но в отличие от «гремлинских» ехидных ехидных ехидных, они работают на передовом ИИ, и их фактор опасности заключается в том, что они могут рассказать детям или поделиться с внешними компаниями.

Как сообщает New York Times, эти говорящие чучела нового поколения обладают гаммой качества и подлинности, но у всех есть один важный вопрос: родители верят, что их маленькие дети будут в безопасности, играя с игрушками, которые связаны с такой чреватой технологией.

Это очень высокий показатель, учитывая, насколько вредно было нанесено детям от якобы «дружественных к детям» чат-ботов, о которых широко документировало «Футуризм».

Первые, самые известные и, вероятно, самые безопасные из этих начиненных ИИ игрушек сделаны Curio, стартапом из Силиконовой долины, который может похвастаться индивидуальным, дружелюбным к детям чат-ботом и голосовым актерством электронного музыканта и Илона Маска экс-Клер «Гримс» Буше.

Как вы можете видеть на фотографиях ниже, эти три плюшевых автомобиля действительно восхитительны — они стоят 100 долларов за штуку, если вам интересно, — но в них есть нечто большее, чем кажется на первый взгляд, и мы не просто говорим о чат-ботах, микрофонах и голосовых будках, встроенных в них.

В интервью, опубликованном на сайте Curio, Буше, привязанный к объявлению о запуске компании в конце 2023 года, художник, увлеченный ИИ, сказал, что игрушка, которую она разработала, Грок — не имеет отношения к крайне фанатичному чат-боту ее бывшего — обучалась API OpenAI и интерактивным разговорам Discord.

Это заявление и другие на официальном сайте Curio не учитывают странную оговорку, содержащуюся в политике конфиденциальности компании, признавая, что Microsoft Azure Cognitive Services, OpenAI, Perplexity AI и платформа родительской проверки Kids Web Services могут собирать или поддерживать личную информацию от детей через приложение или устройство. Как отмечает NYT, это противоречит утверждениям компании о том, что она не сохраняет взаимодействие детей для чего-либо, кроме родительского обзора в приложениях игрушек, и мы обратились к Curio, чтобы спросить, что все это значит.

Несмотря на всю эту сомнительную конфиденциальность в Curio, есть похожие игрушки, продаваемые безымянными брендами, которые, так или иначе, даже более эскизные.

Эти случайные сайты с такими названиями, как «Little Learners» и «FoloToy», различаются по своей специфике, если не по ценовым диапазонам, которые примерно такие же, как игрушки, продаваемые Curio. Little Learners — самый теневый из двух, с рейтингом Trustpilot 2, графикой детей и их семей с игрушками, созданной ИИ, и нулевыми деталями о том, что ИИ поддерживает чат-бот, встроенный в продукт.

FoloToy, между тем, изначально кажется гораздо более законным для сравнения. В подразделе «документация» компания утверждает, что покупатели могут выбирать из более чем 20 крупных языковых моделей компаний (LLM), в том числе из OpenAI, Anthropic, Gemini от Google и нескольких других, которые, по-видимому, базируются в основном в Китае.

Между тем, его политика конфиденциальности, похоже, даже не упоминает FoloToy. Вместо этого он неоднократно называет компанию под названием «Astroship», малоизвестный инструмент искусственного интеллекта для создания программного обеспечения как услуги и веб-сайта. Таким образом, мы не знаем, действительно ли FoloToy, или Astroship, или кто-то действительно стоит за этими предполагаемыми плюсами ИИ, собирает данные от маленьких детей, которые будут их использовать.

Больше в технологии

Политика конфиденциальности также заканчивается этим удивительным и, казалось бы, созданным ИИ клюнкером: «Если у вас есть какие-либо вопросы, проблемы или запросы относительно этой Политики конфиденциальности, пожалуйста, свяжитесь с нами по [вашему контактному адресу электронной почты]».

Учитывая множество примеров болезней ИИ, от людей, впадающих в одержимость и психоз при взаимодействии с чат-ботами, до растущих проблем с конфиденциальностью, связанных даже с самыми сложными моделями, представляется очень преждевременным внедрять эту технологию для детей, особенно когда компании, продающие эти игрушки ИИ, непрозрачны в отношении того, что происходит с их данными и что делает их чат-ботов безопасными для детей.

Выбор верить компаниям ИИ, когда они настаивают на том, что они установили ограждения, чтобы обеспечить безопасность пользователей, приемлем для взрослых, у которых есть агентство в этом решении, но для маленьких детей, которые не имеют права голоса в этом вопросе, кажется несправедливым и пограничным опасным подвергать их воздействию ИИ в целом — гораздо меньше ИИ контрабандой в нечто настолько безобидное, как чучело. игрушка.

Больше об ИИ и детях: ** * Огромные числа одиноких детей используют ИИ в качестве замещающих друзей*

Похожие записи