80 лет Великой Победе!

В России предложили запретить разработку ИИ с повышенным риском безопасности

Об этом сообщает РБК со ссылкой на источники. Соответствующее предложение выдвинула группа юристов, сотрудников консалтинговых компаний и представителей рынка по развитию ИИ. Они разработали проект, согласно которому в России может появиться законодательное регулирование для искусственного интеллекта. В рамках инициативы, в том числе, можно будет маркировать ИИ по степени потенциальной опасности: системы с неприемлемым, высоким, ограниченным и минимальным риском. Также авторы проекта предложили ввести запрет на создание и применение ИИ повышенного уровня риска, который может стать опасным как для личности и общества, так и для государства, а также нарушать базовые права и свободы человека. Помимо этого, проектом планируется ввод обязательной государственной регистрации и сертификации систем, которые представляют высокий уровень риска в таких областях, как здравоохранение, транспорт, финансы и правоохранительная деятельность. Для систем с более низким уровнем риска будет определен внутренний контроль качества и добровольная сертификация. Собеседники издания заявили, что инициатива уже была вынесена на обсуждение в Госдуме, "Деловой России" и на отраслевых дискуссионных площадках. С предложением разработать единые правила маркировки контента, созданного с помощью нейросетей, выступал ранее депутат Законодательного собрания Санкт-Петербурга Павел Крупник. В обращении к главе Минцифры Максуту Шадаеву он заявил, что злоумышленники начали использовать ИИ для создания контента с целью совершения правонарушений. Депутат призвал Шадаева изучить возможность ввода маркировки для сгенерированных или измененных фото, видео, аудио при помощи сообщений-плашек для "избежания потенциально общественно опасных ситуаций". Более половины москвичей используют ИИ для решения личных задач

Переписанный текст: В России появилась инициатива о введении запрета на разработку искусственного интеллекта (ИИ) с повышенным или неприемлемым уровнем риска безопасности. Предложение выдвинула группа юристов, консультантов и экспертов по развитию ИИ, которые разработали проект законодательного регулирования в этой области. Согласно инициативе, ИИ будет классифицироваться по степени опасности, и предлагается запретить создание и использование ИИ с высоким уровнем риска, способного угрожать личной безопасности, обществу и государству, а также нарушать права человека. В рамках проекта также предусмотрено обязательное государственное регистрирование и сертификация систем ИИ с высоким уровнем риска в сферах здравоохранения, транспорта, финансов и правоохранительной деятельности, а также введение внутреннего контроля качества и добровольной сертификации для систем с низким риском. Инициатива уже обсуждается в Госдуме, "Деловой России" и других отраслевых площадках. Помимо этого, депутат Законодательного собрания Санкт-Петербурга выступил с предложением разработать правила маркировки контента, созданного с помощью нейросетей, для предотвращения потенциальных правонарушений. Более половины жителей Москвы используют ИИ для решения своих задач.