В 2024 году искусственный интеллект (ИИ) занял центральное место в законодательных дискуссиях в Соединенных Штатах, что отражает быстрый рост этой преобразующей технологии. Поскольку каждый штат ввел ту или иную форму законодательства, связанного с ИИ, прошлый год продемонстрировал среди законодателей настоятельную необходимость создания рамок, учитывающих социальные и экономические последствия ИИ. От обеспечения прозрачности контента, создаваемого искусственным интеллектом, до регулирования таких передовых приложений, как дипфейки и цифровые копии, правительства штатов стремились использовать возможности и проблемы, связанные с этой технологией.
Одной из основных тенденций стало принятие законодательства, устанавливающего меры безопасности для систем искусственного интеллекта. Эти предложения, принятые в Коннектикуте, Колорадо и Калифорнии, часто требовали от разработчиков раскрывать возможности своих моделей, оценивать риски и снижать потенциальный вред. Хотя эти меры были направлены на обеспечение ответственного использования ИИ, возникли опасения по поводу их непредвиденных последствий для инноваций. Широкие требования рискуют задушить технологический прогресс в развивающемся секторе, ставя государства со строгими правилами в невыгодное конкурентное положение по сравнению с регионами с более сбалансированными подходами.
Еще одной заметной тенденцией стало стремление принять меры по устранению происхождения контента, включая нанесение водяных знаков на медиа, созданные искусственным интеллектом, и борьбу с дипфейками. Несколько штатов, включая Калифорнию и Флориду, ввели или приняли законы, требующие, чтобы контент, созданный с помощью ИИ, имел цифровое подтверждение происхождения для борьбы с дезинформацией и мошенничеством. Однако эти инициативы подверглись критике из-за технических ограничений, таких как простота удаления водяных знаков после создания. Аналогичным образом, предлагаемый закон, регулирующий дипфейковый контент, подчеркивает важность борьбы с злоумышленниками, а не наказания разработчиков или пользователей систем искусственного интеллекта.
Наконец, появление государственных целевых групп и исследовательских групп сигнализировало об активном подходе к пониманию последствий ИИ. Эти инициативы были сосредоточены на этических соображениях, экономических последствиях и разработке рамок управления. Такие штаты, как Вашингтон и Западная Вирджиния, создали целевые группы для правильного анализа ИИ и поиска методов балансирования рисков и выгод ИИ. Поскольку законодательная база продолжает развиваться, уроки этих усилий подчеркивают необходимость совместной и информированной разработки политики для использования потенциала ИИ и ответственного решения его сложностей.
Что будет в 2025 году
Ожидается, что в 2025 году законодательство в области ИИ на уровне штатов будет основываться на фундаменте, заложенном в 2024 году, с повышенным вниманием к совершенствованию и адаптации нормативной базы, чтобы идти в ногу с технологическим прогрессом. Штаты, скорее всего, пересмотрят и пересмотрят существующие законопроекты, чтобы учесть отзывы заинтересованных сторон, и будут работать над развитием законодательства, принятого в других штатах. Новые приоритеты включают более глубокое изучение роли ИИ в таких важнейших секторах, как образование, правоохранительная деятельность и общественное здравоохранение. Поскольку ИИ продолжает развиваться, правительства штатов готовы сыграть ключевую роль в формировании политического ландшафта, который балансирует технологический прогресс с этической ответственностью.
Дополнительную информацию о тенденциях в законодательстве штата в области ИИ с 2024 года и в будущем в 2025 году можно найти в обзоре CCIA по штату в области ИИ на 2024 год.