На весь ИИ-контент хотят нанести водяные знаки

На весь ИИ-контент хотят нанести водяные знаки

Отсутствие маркировки, что тот или иной контент создан с использованием искусственного интеллекта, должно насторожить интернет-пользователя. Он сможет отправить материал на проверку администрации ресурса, а при выявлении нарушения информацию заблокируют или удалят. Такие меры для борьбы с дипфейками прорабатывают парламентарии. Но для начала в законодательство нужно ввести понятия искусственного интеллекта и дипфейка, сказал «Парламентской газете» первый зампред Комитета Совета Федерации по конституционному законодательству и госстроительству Артем Шейкин.

— Артем Геннадьевич, почему именно сейчас важно зафиксировать в законе точное определение искусственного интеллекта?

— ИИ прочно вошел в нашу жизнь, при этом с точки зрения законодательства такого понятия, по сути, нет. А регулировать то, чего нет, в том числе защищать людей от негативных последствий использования ИИ, это как ловить руками дым. Важно определить технологию, используя жесткие критерии с точки зрения интересов государства. Поэтому, мне кажется, описать ИИ можно как автономную технологию, основанную на выборе методов для решения конкретных когнитивных задач, которая способна достигать результатов, сопоставимых с результатами интеллектуальной деятельности человека или превосходящих их. ИИ находится в постоянном развитии, невозможно в одном определении предусмотреть сразу все, но такая конструкция, на мой взгляд, наиболее универсальна и сможет работать достаточно продолжительное время.

— Зачем уходить от «имитации человека» в определении ИИ и кто ответит за последствия принимаемых решений?

— ИИ не имитирует деятельность человека — он решает прикладные задачи, причем делает это своим, принципиально иным способом.

Цель разработчиков — не создать копию человеческого разума, а сделать такую технологию, которая будет максимально эффективно решать поставленную задачу за максимально короткий промежуток времени.

Вопрос об ответственности куда более сложный. Представляется, что это должна быть комплексная ответственность разработчика и пользователя, но найти баланс и определить меру ответственности каждого непросто. Однозначного ответа пока нет ни в одной стране.

Сенатор Шейкин предложил законодательное определение искусственного интеллекта

— Как обеспечить баланс между безопасностью и развитием ИИ, чтобы не зарегулировать отрасль?

— Это один из главных вопросов, над которыми мы работаем. Однозначно нужно уйти от запретов, при этом ввести гибкий риск-ориентированный подход. Ведь очевидно, что не нужно одинаково регулировать игру в шахматы с компьютером и использование беспилотных автомобилей.

Я бы выделил четыре ключевых принципа. Первый — это дифференциация рисков по уровню: от низких, например фоторедакторы на телефоне, до высоких — ИИ в сфере образования, медицине, критической информационной инфраструктуре. Второй — технологическая нейтральность, что означает преимущество правильного решения задачи и безопасности над технологиями, которые использованы для достижения этих целей. Третий — экспериментальные правовые режимы, которые позволяют производить временные изъятия ограничительных норм из законодательства, чтобы протестировать новую технологию. Если она зарекомендует себя и с точки зрения эффективности, и с точки зрения безопасности, соответствующие изъятия закрепить на постоянной основе. Четвертый принцип: одна проверка — признание везде. Важно, чтобы выданный единым органом сертификат признавался бы всеми другими структурами, что сэкономит время, деньги и ресурсы разработчиков для поиска еще более эффективных решений.

Сенатор Шейкин поддержал создание единой базы дропов

© freepik.com

— Как регулировать дипфейки?

— Дипфейк — зло, которое только набирает обороты. Определения этого понятия сейчас в законе нет, поэтому, чтобы регулировать и бороться с опасными последствиями, нужно понимать, с чем мы имеем дело. Второе, что нужно сделать, — обеспечить прозрачность через обязательную маркировку контента в медиа, соцсетях, рекламе. Это не цензура, а современная этика.

Если вы встречаете в информационном пространстве видеоролик или аудиозапись, в отношении которой у вас есть подозрения, что это продукт ИИ, но она не имеет пометки, это должно быть поводом насторожиться, а также отправить жалобу оператору платформы, чтобы дополнительно проверить этот контент. Неправомерный контент должен оперативно удаляться.

Кроме того, полезно будет стимулировать разработку и внедрение технологии цифровых водяных знаков и механизмов распознавания дипфейков. И, конечно, необходимо продолжать просвещать людей о технологиях, которые могут быть использованы против них. Сейчас увеличилось количество попыток мошенничества в отношении молодежи. Они активно используют современные технологии, а преступники используют технологии против них. Считаю, что к информационной кампании должны присоединиться популярные блогеры и постоянно рассказывать о том, как обеспечить цифровую гигиену и безопасность.

— Как будет работать механизм возврата похищенных мошенниками денег, если банк и оператор связи не смогли его предотвратить?

— Важным элементом выстраиваемой системы защиты является база номеров, в отношении которых ранее предпринимались попытки мошеннических атак или которые в этих атаках были замечены. Банк приостановит операцию, если номер находится в этой базе. Технологии обмена информацией, выявления подозрительных контактов совершенствуются, и ответственность рублем, в том числе обязанность возмещать украденные деньги, будет стимулировать и банки, и операторов совершенствовать системы безопасности. Мы видим, как принятые ранее законы работают: сейчас уже не получится прийти в любой банк, а то и в несколько подряд, и мгновенно получить кредит. Будем и дальше совершенствовать законодательство и следить за правоприменением.

«Как искусственный интеллект помогает бороться с мошенниками»  

Парламентская газета Парламентская газета

07:05
9
Нет комментариев. Ваш будет первым!
Использование нашего сайта означает ваше согласие на прием и передачу файлов cookies.

© 2025