Власти России будут контролировать использование искусственного интеллекта
Рабочая группа из юристов, представителей консалтинговых компаний и участников рынка, развивающих ИИ, разработала проект законодательного регулирования искусственного интеллекта в России.
Заместитель главы комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов говорит, что сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ».
По его словам, законодательные инициативы пока депутатами «всерьез не рассматриваются». «Рабочая группа создана, для того чтобы проработать и внимательно, детально изучить все запросы от различных отраслей», — пояснил он. По словам Свинцова, в ближайшие месяцы должны появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но законопроекта, который зарегулирует всю деятельность ИИ, в этом году он не ожидает. Среди тех сфер, которые отрегулируют в первую очередь, депутат назвал маркировку. Но законопроекта в готовой редакции в Госдуме пока нет, подчеркнул он.
Представители аппарата правительства и Минцифры говорят, что к ним не поступал на рассмотрение такой законопроект. Если поступит, они его рассмотрят.
По информации РБК законопроект предлагает:
— Ввести понятие искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека).
— Понятие технологий ИИ (к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.).
— Понятие систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии), разработчика, оператора и пользователя подобных систем и др.
— Ввести требования к маркировке систем ИИ, то есть обязательному информационному обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой». Ее должен обеспечить оператор системы ИИ до каждого случая взаимодействия с пользователем. Требование не будет распространяться на системы ИИ, используемые в закрытых технологических процессах, для внутренней автоматизации организаций и ряде других.
— Ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Предлагается запретить в России разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина; для систем с высоким уровнем риска (тех, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) ввести обязательную госрегистрацию и сертификацию; для тех, у которых ограниченный уровень риска, — системы внутреннего контроля качества, добровольную сертификацию.
— Ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем искусственного интеллекта. Но в документе оговаривается, что разработчик не будет нести ответственность, если принял все необходимые меры для предотвращения причинения вреда, если вред возник из-за нарушения правил эксплуатации системы и в нескольких других исключениях, оператор систем ИИ будет освобожден от ответственности, если докажет, что вред возник по вине разработчика в результате нарушения пользователем правил использования системы и др. Предлагается ввести обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска.
— Для определения, кому принадлежат права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека (определял ли человек параметры и критерии создания результата, делал ли творческий отбор и доработку, принимал ли творческие решения в процессе создания). Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку, если не было, то оператору системы ИИ (действует в течение 50 лет).
Директор по цифровым технологиям «Ростелекома» Роман Хазеев говорит, что на текущий момент еще нигде в мире не было сформировано достаточной законодательной базы и практик для определения ответственности разработчиков нейросетей, границ творчества и факта применения дипфейков. «Может показаться, что законодательные инициативы в этой части находятся в позиции догоняющих. Но это не так: введение регулирующих норм целесообразно только после определенной стабилизации процессов и формирования проблематики для урегулирования в законодательной плоскости», — сказал Хазеев, отметив, что все видят увеличивающиеся случаи применения дипфейков, сталкиваются с трудностью отличить подлинную информацию от выдуманной.