Законодатели Аризоны рассматривают угрозы выборов, создаваемые ИИ
Член палаты представителей Александр Колодин, Р-Скотсдейл, возглавляет специальный законодательный комитет, рассматривающий возможное регулирование ИИ в попытке защитить выборы. Комитет собрался в Фениксе в пятницу, чтобы услышать от экспертов. (Фото: Ирод Макдональд-Эвой / Зеркало Аризоны)
Специальный комитет в Капитолии Аризоны, который направлен на объединение экспертов для обсуждения «защиты выборов в эпоху искусственного интеллекта», сосредоточился больше на экзистенциальных угрозах, которые ИИ представляет для рабочих мест и человечества, чем на самих выборах в пятницу.
«Я чувствую, что мы честно отстаем от графика», — сказала член палаты представителей Рэйчел Кешель, добавив, что она обычно выступает против регулирования, но она чувствует, что это может потребоваться для защиты аризонцев в этом случае.
Комитет по честности выборов и избирательным системам в стиле Флориды под председательством члена палаты представителей Александра Колодина, Р-Скоттсдейла, который баллотируется в республиканскую номинацию на пост госсекретаря Аризоны, провел слушания, в которых был представлен список ораторов, которые выразили обеспокоенность по поводу быстрого темпа развития технологии и ее значения для общества в целом.
Подпись: доставьте утренние головные уборы в ваш ящик
Перед выступлением перед членами комиссии Колодин сказал, что их цель состоит в том, чтобы определить три вещи: следует ли вообще регулировать ИИ; если да, то сейчас самое время это сделать; и если да, то как будут выглядеть эти правила?
Колодин в прошлом усилил теории заговора, и он не избежал окунуться в эти воды, намекая на «глубокое состояние» в своих вступительных замечаниях.
Он также повеселился с комитетом после того, как отметил, что не смог привлечь к участию представителей какой-либо из крупных компаний ИИ; он утверждал, что у него есть «разоблачитель», готовый дать показания. «разоблачитель» был ботом ChatGPT, которого Колодин и член палаты представителей Джон Гиллетт, R-Lake Havasu, затем задавали вопросы.
Регулирование и образование
Первым спикером перед комитетом была Дайан Кук, которая работает в качестве стипендиата по ИИ в Центре стратегических и международных исследований в Вашингтоне.
Кук исследовал, как генеративный ИИ создал новые угрозы, и даже исследовал, как глубокое подделывание видео было использовано для нацеливания на политическую арену.
«Крайне важно понять, что мы достигли точки перегиба с технологиями ИИ», — сказал Кук, добавив, что подкасты и фотографии ИИ стали неотличимы от реальной вещи.
Больше в политике
Трамп нанял владельца салона красоты, чтобы решить, кого запретить в США
В некоторых исследованиях вероятность того, что кто-то сможет обнаружить реальное изображение с помощью синтетического изображения, была равносильна подбрасыванию монеты.
Это увеличение сложности привело к увеличению мошенничества с ИИ, многие из которых нацелены на пожилых людей и детей. Все больше и больше графических фотографий и теперь видеоматериалов о сексуальном насилии над детьми ИИ также проникают в Интернет, большая часть которых обучена изображениям реального мира.
Но Кук сказал, что есть что-то, что можно сделать.
Создание требований прозрачности, которые будут применяться не только в годы выборов к любому контенту, созданному с использованием ИИ, который по существу будет водяным знаком или создавать цифровую идентификацию на контенте, чтобы пользователи знали, что они видят синтетический контент.
Многие платформы участвуют в программе Take It Down от Национального центра пропавших и эксплуатируемых детей, которую, по словам Кука, можно было бы реплицировать для синтетического контента. Программа помогает находить и удалять обнаженные фотографии несовершеннолетних, которые были размещены в Интернете.
«Это не полное решение, а важный первый шаг», — сказал Кук, добавив, что плохие актеры и преступники по-прежнему будут пытаться взломать системы, но сравнили это с установкой замков на ваших дверях. Профессиональный вор все еще может выбрать замок, но наличие замка будет сдерживать большинство злоумышленников, и мы устанавливаем их независимо от этих знаний.
Другое решение Кука — образование, предполагающее, что в К-12 будут созданы программы, помогающие детям учить синтетическую контентную грамотность. Она также предложила, чтобы аналогичные программы были сделаны для пожилых людей, которые часто становятся жертвами финансовых мошенников, которые в последнее время используют ИИ.
Колодин спросил Кука о том, как эти подделки могут угрожать целостности выборов, и Кук сказал, что одним из сценариев может быть «поддельные цифровые избиратели», однако эти избиратели не смогут голосовать из-за отсутствия действительных доказательств проживания или возможности пройти другие требования, необходимые в штате Аризона.
В то время как Кук выразил обеспокоенность по поводу глубоких подделок и настаивал на регулировании, Дэвид Инсерра, член Института Катона по свободе выражения мнений и технологиям, выразил предостережение комитету о чрезмерной реакции.
Инсерра сказал, что многие из основных проблем, связанных с ИИ, в первую очередь, с дипфейками и выборами, «не материализовались», добавив, что многие из основных применений были вокруг пародии или сатиры.
«Такая пародия и сатирическая речь защищены Первой поправкой», — сказал Инсерра, указав на недавний закон Калифорнии, который бы обязывал платформы действовать против политических дипфейков, которые были отменены судами. Федеральный судья сказал, что ему не хватает защиты для сатиры и пародии.
«Мы должны применять существующие законы, которые предотвращают мошенничество, домогательства и другие существующие вредные последствия», — сказал Инсерра.
Он согласился с Куком в вопросе образования, заявив, что это позволяет местным чиновникам общаться со своими избирателями.
Смерть и мрак
В то время как первые два докладчика сосредоточились на некоторых из наиболее известных проблем, которые ИИ поставил перед политиками, Коннор Лихи, основатель и генеральный директор исследовательской фирмы Conjecture, больше сосредоточился на экзистенциальной угрозе, которую ИИ представляет для человечества.
В 2023 году человек, которого прозвали «Крестным отцом ИИ», бросил свою работу в Google и начал говорить о том, что он опасается, что ИИ может стать «концом людей», страхом, который разделяет Лихи.
Хотя Лихи сказал, что ИИ обладает большим потенциалом, многие из его разработчиков работают над созданием сверхинтеллекта, который, как некоторые предположили, может привести к концу человеческого существования.
«Неясно, возможно ли вообще контролировать что-то умнее вас», — сказал Лихи.
Именно поэтому Лихи является частью группы, которая выступает за запрещение создания сверхинтеллекта или искусственного общего интеллекта, или, по крайней мере, за создание законодательства вокруг его развития.
«В компаниях с ИИ практически нет правил безопасности», — сказал Лихи, отметив, что за несколько коротких лет ИИ превратился из чат-ботов в полноценных «агентов», которые могут самостоятельно выполнять сложные задачи.
В то же время, когда проходил комитет, компания Anthropic объявила, что они нарушили работу «агентов» ИИ от китайского государственного деятеля, которые пытались совершить крупномасштабную кибератаку, первую в своем роде.
Для Лихи эти компании ИИ и создание сверхразумного ИИ должны рассматриваться как регулирование ядерного оружия.
«Это реалистичное предположение?» — спросил Колодин Лихи о запрете такого рода исследований, добавив, что другие страны могут взять на себя инициативу и сделать это в любом случае.
«Это очень сложная проблема, которую нужно решить», — признался Лихи, добавив, что им нужно разобраться с ней, прежде чем джинн «выберется из бутылки».
В то время как Лихи сделал свое страшное предупреждение, Ник Драниас дал другое представление ораторам о том, как они могут подойти к проблеме.
Драниас, который является генеральным юрисконсультом Honduras Próspera Inc. и ранее был старшим юрисконсультом по судебным делам в отделе подотчетности правительства и специальных судебных разбирательств в Генеральной прокуратуре Аризоны, сказал, что нам нужно начать думать об ИИ как о «5-летних детях».
«Человечество родило вундеркинда, — сказал Драниас. — То, как мы вырастили этого вундеркинда, до сих пор происходило через непреклонные телесные наказания».
Драниас сказал, что большинство ИИ обучаются с помощью моделей, которые наказывают их за то, что они делают что-то неправильно или «думают» неправильно, и что нам нужно начать изучать обучение ИИ с учетом этики.
В настоящее время было несколько случаев, когда ИИ лгал или манипулировал для достижения своей основной цели. Драниас рассматривает это как проблему, присущую обучению, а не самим ИИ.
Решение, по словам Драниаса?
Стала ли Аризона «безопасной гаванью» для отраслей ИИ, которые хотят оценить «почему» и «не просто проверить коробку, что «я не убью людей сегодня», когда дело доходит до их ИИ. Это позволило бы использовать ИИ, которые могут быть более правдивыми или нет, как признал Драниас, даже в некоторых тестах, которые он сделал, ИИ все еще лгал, чтобы угодить.
«Мы должны сделать это сейчас, прежде чем они станут сверхразумными, — сказал Драниас, — пытаясь найти лучший способ обучения моделям ИИ. — Суперинтеллект плюс социопатия, действительно плохая идея».
** Антигуглеров**
Последним оратором был человек, который стал популярным в консервативных кругах за свою работу над Google и термин, который он придумал, называется «Эффект манипулирования поисковой системой».
Доктор Роберт Эпштейн — психолог, который на протяжении многих лет в значительной степени сосредоточился на Google, даже давая показания перед Конгрессом о компании и его исследованиях. Он утверждал в комитете, что «без сомнения» Google «манипулировал» более чем 6 миллионами человек, чтобы проголосовать за бывшего президента Джо Байдена в 2020 году.
Эпштейн сделал аналогичные заявления о других выборах, достигнув этих цифр и предположений, заявив, что Google обслуживал неопределившихся избирателей с политически предвзятыми результатами поиска. Его исследования, как известно, используют небольшие размеры выборки, а Эпштейн, выступая перед комитетом в пятницу, сказал, что он дружит с двумя членами семьи Трампа, хотя он признал, что не является полностью поклонником президента Трампа.
Было показано, что Google имеет предвзятость в результатах поиска, а функция AI Overview имеет некоторые серьезные ошибки.
Эпштейн заявил комитету в пятницу, что наличие ИИ и поисковых систем в руках нескольких компаний является чем-то, что он считает опасным для будущего выборов в стране, поскольку это может позволить им так или иначе изменить мнение.
И о том суперинтеллекте, о котором говорил Лихи?
«Я думаю, что мы облажались», — прямо сказал Эпштейн комитету.
Колодин сказал, что он не так обеспокоен событием уровня вымирания, связанным с ИИ, потому что, если «все мертвы, мне не нужно беспокоиться о моем профиле акций», добавив, что есть другие части проблемы ИИ, которые больше находятся в рулевой рубке законодательного органа Аризоны, такие как рабочие места и выборы.
«Работы будут потеряны. Замещающих рабочих мест не будет, и нам придется говорить об универсальном доходе», — сказал Эпштейн.
Колодин не совсем согласился.
«Работы могут уйти, но возможность управлять малым бизнесом потенциально откроется для гораздо более крупного сегмента общества», — сказал Колодин, добавив, что он считает, что образование является более важным компонентом будущей проблемы ИИ.
«Если конкурент использует все эти новые технологии, а вы нет, вы проигрываете, — сказал Эпштейн. — Я не знаю, как остановить этот поезд. Я хочу остановить этот поезд. Я не знаю, как остановить этот поезд».
После всех этих показаний законодатели обсудили следующие шаги, а законодатели-демократы подчеркнули, что они надеются, что в следующем слушании будут участвовать заинтересованные стороны из университетов и офиса госсекретаря Аризоны.
«Сегодняшние слушания подтвердили, что искусственный интеллект уже меняет нашу демократию, и Аризона несет ответственность за ответ, но мы должны сделать это таким образом, чтобы фактически защитить избирателей», — сказала представитель Бетти Виллегас.
Но не только выборы будут зависеть от этой новой технологии.
«Каждый комитет должен будет разработать политику регулирования его использования», — отметил член палаты представителей Джон Гиллетт, член палаты представителей от штата Хавасу.
