История ужасов нависла, когда дети получают начиненных животных на основе ИИ
От жуткого «ИИ» Стивена Спилберга (2001) до M3GAN (2022) игрушки, пропитанные искусственным интеллектом, были источником увлечения и террора в поп-культуре на протяжении десятилетий.
Теперь, перед лицом всех этих предостерегающих историй, новый класс смутно угрожающих болтливых игрушек продается в Интернете, но в отличие от «гремлинских» ехидных ехидных ехидных, они работают на передовом ИИ, и их фактор опасности заключается в том, что они могут рассказать детям или поделиться с внешними компаниями.
Как сообщает New York Times, эти говорящие чучела нового поколения обладают гаммой качества и подлинности, но у всех есть один важный вопрос: родители верят, что их маленькие дети будут в безопасности, играя с игрушками, которые связаны с такой чреватой технологией.
Это очень высокий показатель, учитывая, насколько вредно было нанесено детям от якобы «дружественных к детям» чат-ботов, о которых широко документировало «Футуризм».
Первые, самые известные и, вероятно, самые безопасные из этих начиненных ИИ игрушек сделаны Curio, стартапом из Силиконовой долины, который может похвастаться индивидуальным, дружелюбным к детям чат-ботом и голосовым актерством электронного музыканта и Илона Маска экс-Клер «Гримс» Буше.
Как вы можете видеть на фотографиях ниже, эти три плюшевых автомобиля действительно восхитительны — они стоят 100 долларов за штуку, если вам интересно, — но в них есть нечто большее, чем кажется на первый взгляд, и мы не просто говорим о чат-ботах, микрофонах и голосовых будках, встроенных в них.
В интервью, опубликованном на сайте Curio, Буше, привязанный к объявлению о запуске компании в конце 2023 года, художник, увлеченный ИИ, сказал, что игрушка, которую она разработала, Грок — не имеет отношения к крайне фанатичному чат-боту ее бывшего — обучалась API OpenAI и интерактивным разговорам Discord.
Это заявление и другие на официальном сайте Curio не учитывают странную оговорку, содержащуюся в политике конфиденциальности компании, признавая, что Microsoft Azure Cognitive Services, OpenAI, Perplexity AI и платформа родительской проверки Kids Web Services могут собирать или поддерживать личную информацию от детей через приложение или устройство. Как отмечает NYT, это противоречит утверждениям компании о том, что она не сохраняет взаимодействие детей для чего-либо, кроме родительского обзора в приложениях игрушек, и мы обратились к Curio, чтобы спросить, что все это значит.
Несмотря на всю эту сомнительную конфиденциальность в Curio, есть похожие игрушки, продаваемые безымянными брендами, которые, так или иначе, даже более эскизные.
Эти случайные сайты с такими названиями, как «Little Learners» и «FoloToy», различаются по своей специфике, если не по ценовым диапазонам, которые примерно такие же, как игрушки, продаваемые Curio. Little Learners — самый теневый из двух, с рейтингом Trustpilot 2, графикой детей и их семей с игрушками, созданной ИИ, и нулевыми деталями о том, что ИИ поддерживает чат-бот, встроенный в продукт.
FoloToy, между тем, изначально кажется гораздо более законным для сравнения. В подразделе «документация» компания утверждает, что покупатели могут выбирать из более чем 20 крупных языковых моделей компаний (LLM), в том числе из OpenAI, Anthropic, Gemini от Google и нескольких других, которые, по-видимому, базируются в основном в Китае.
Между тем, его политика конфиденциальности, похоже, даже не упоминает FoloToy. Вместо этого он неоднократно называет компанию под названием «Astroship», малоизвестный инструмент искусственного интеллекта для создания программного обеспечения как услуги и веб-сайта. Таким образом, мы не знаем, действительно ли FoloToy, или Astroship, или кто-то действительно стоит за этими предполагаемыми плюсами ИИ, собирает данные от маленьких детей, которые будут их использовать.
Больше в технологии
Политика конфиденциальности также заканчивается этим удивительным и, казалось бы, созданным ИИ клюнкером: «Если у вас есть какие-либо вопросы, проблемы или запросы относительно этой Политики конфиденциальности, пожалуйста, свяжитесь с нами по [вашему контактному адресу электронной почты]».
Учитывая множество примеров болезней ИИ, от людей, впадающих в одержимость и психоз при взаимодействии с чат-ботами, до растущих проблем с конфиденциальностью, связанных даже с самыми сложными моделями, представляется очень преждевременным внедрять эту технологию для детей, особенно когда компании, продающие эти игрушки ИИ, непрозрачны в отношении того, что происходит с их данными и что делает их чат-ботов безопасными для детей.
Выбор верить компаниям ИИ, когда они настаивают на том, что они установили ограждения, чтобы обеспечить безопасность пользователей, приемлем для взрослых, у которых есть агентство в этом решении, но для маленьких детей, которые не имеют права голоса в этом вопросе, кажется несправедливым и пограничным опасным подвергать их воздействию ИИ в целом — гораздо меньше ИИ контрабандой в нечто настолько безобидное, как чучело. игрушка.
Больше об ИИ и детях: ** * Огромные числа одиноких детей используют ИИ в качестве замещающих друзей*