2025-09-24T09:28:41Z
Страны СНГ в октябре планируют утвердить концепцию военного сотрудничества
2025-09-24T09:28:00Z
Власти Нижегородской области обсудили с делегацией из Сенегала вопросы сотрудничества
2025-09-24T09:26:37Z
Эксперт Маккини считает, что некоторые граждане США идут в ВСУ из-за бедности
2025-09-24T09:24:08Z
Журналист Александр Сладков сделал цикл фильмов о выдающихся командирах
2025-09-24T09:24:00Z
Саратовцы открыли цех по пошиву одежды и амуниции для бойцов СВО
2025-09-24T09:23:00Z
Алексей Песошин принял участие в XХI заседании Консультативного совета руководителей органов госвласти, осуществляющих управление госрезервами в государствах – участниках СНГ
2025-09-24T09:22:42Z
Яцкина избрали на пост первого вице-спикера СФ
2025-09-24T09:21:06Z
Краснов назначен главой ВС, иск к Пугачевой: новости за 24 сентября
2025-09-24T09:18:43Z
В Новороссийске идет отражение атаки безэкипажных катеров
2025-09-24T09:18:37Z
В Челябинске эвакуировали студентов колледжа из-за задымления
2025-09-24T09:17:23Z
Решетников предложил передать Роспатенту контроль за оборотом интеллектуальных прав
2025-09-24T09:15:46Z
Российские военные уничтожили англоязычный расчет БПЛА ВСУ
2025-09-24T09:14:46Z
Хренин: сохранение памяти о ВОВ – общая ответственность СНГ
2025-09-24T09:12:14Z
ВС России за сутки уничтожили до взвода ВСУ в ходе боев в Сумской области
2025-09-24T09:09:24Z
Раскрыты подробности о найденном с раной в шее экс-чиновнике Росимущества
2025-09-23T12:52:09Z — До конца этого года Федеральная служба по техническому и экспортному контролю (ФСТЭК) представит на обсуждение проект стандарта по безопасной разработке систем искусственного интеллекта (ИИ). Документ должен учесть специфические угрозы, связанные с технологией больших данных и моделями машинного обучения. Об этом сообщил первый заместитель директора ФСТЭК России Виталий Лютиков на BIS Summit 2025.
До конца этого года Федеральная служба по техническому и экспортному контролю (ФСТЭК) представит на обсуждение проект стандарта по безопасной разработке систем искусственного интеллекта (ИИ). Документ должен учесть специфические угрозы, связанные с технологией больших данных и моделями машинного обучения. Об этом сообщил первый заместитель директора ФСТЭК России Виталий Лютиков на BIS Summit 2025.
Сегодня ИИ активно внедряется в критически важные сферы - от государственного управления до промышленности. При этом для ИИ-систем характерны свои риски и уязвимости. Например, они могут давать ложные рекомендации или случайно передавать конфиденциальные данные.
"Разработка отдельного стандарта по безопасной разработке ИИ-систем - стратегически важный шаг для российской IT-отрасли. Отсутствие четких требований к безопасности создает риски не только для бизнеса, но и для национальной цифровой экосистемы в целом. Появление стандарта позволит задать единые правила работы и тем самым повысить доверие к отечественным разработкам", - указывает член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
Он добавляет, что основу будущего документа, по всей видимости, составят требования к обеспечению безопасности на протяжении всего жизненного цикла ИИ-систем - от сбора и обработки данных до внедрения и эксплуатации моделей. Особое внимание будет уделено качеству и целостности датасетов: правилам их формирования, хранению, разметке и защите от несанкционированного доступа. Это необходимо, чтобы исключить возможность "отравления" данных и вмешательства в процесс обучения, указывает депутат.
Евгений Осадчук, директор направления "Искусственный интеллект" АНО "Цифровая экономика", отмечает, что обеспечение безопасности ИИ-систем требует произвести оценку рисков и создать соответствующую модель угроз. Подробному анализу должен быть подвергнут каждый этап создания ИИ-решения: проектирование, разработка, развертывание и эксплуатация. И уже применительно к каждому этапу, зная присущие ему риски и уязвимости, можно создавать некий свод правил и стандартов.
Например, на этапе проектирования необходимо учитывать источник, целостность и репрезентативность обучающих данных, обеспечить их минимизацию с позиции соблюдения норм и требований по защите персональных данных. А на этапе разработки внимание должно быть уделено методам безопасного кодирования, безопасности моделей и библиотек сторонних производителей.
"Полноценная стандартизация разработки систем искусственного интеллекта с точки зрения безопасности потребует от разработчиков стандарта пройтись по всем этапам создания ИИ-решения и предложить для каждого этапа свои отдельные правила в части формирования обучающих данных, использования сторонних моделей и библиотек, инфраструктуры и интерфейсов, формирования процессов мониторинга и процедур реагирования", - указывает Осадчук.
В случае, если регулирование ИИ будет создаваться на основе поддержания баланса интересов, оно может стимулировать влияние на участников индустрии. "Крупному бизнесу предсказуемость правовой среды и унификация стандартов может помочь в планировании долгосрочных инвестиций. Для развития научных исследований с перспективой практического применения важны "регуляторные песочницы" и упрощенный доступ к данным при условии сохранения защиты прав граждан", - указывает генеральный директор Института AIRI Иван Оселедец.
Азамат Жилоков, директор института искусственного интеллекта МФТИ, рассказал, что также особое внимание стоит уделить генеративным технологиям, включая большие языковые модели. Эти решения быстро внедряются в самые разные области, но пока еще не имеют четких и общепринятых правил безопасного применения.
"Важно, чтобы требования были понятными и выполнимыми, реально повышали уровень безопасности, но при этом не мешали развитию технологий. Здесь принципиально важно избежать ситуации, когда чрезмерное регулирование начинает сдерживать внедрение", - заключает эксперт.
Источник:
2025-09-23T08:54:41Z
Для противодействия кибермошенникам необходимо запретить разработку с помощью нейросети и распространение вредоносного ПО, заявил НСН эксперт по кибербезопасности Александр Дворянский.
2025-09-23T20:47:01Z
2025-09-24T08:43:00Z
Банк России планирует рассмотреть возможность реализации мероприятий, направленных на повышение доступа разработчиков и потребителей к данным, необходимым для обучения моделей искусственного интеллекта (ИИ), говорится в докладе регулятора "Национальная цифровая инфраструктура финансового рынка".Обеспечение удобных и безопасных механизмов обмена данными между государством, бизнесом и гражданами для применения ИИ на финансовом рынке регулятор называет одним из перспективных направлений развития национальной цифровой инфраструктуры."Учитывая, что решения все чаще принимаются и на основе данных, и на моделях ИИ, качество самих данных становится ключевым фактором развития моделей ИИ на финансовом рынке, а также влияет на уровень доверия к этой технологии", - сказано в докладе.ЦБ, помимо повышения качества данных, отмечает важность разработки с участием регулятора комплексной архитектуры данных на финансовом рынке.Банк России в июле разработал и направил в финансовые организации кодекс этики в сфере разработки и применения ИИ.
2025-09-22T22:00:00Z
2025-09-23T10:47:12Z
Российский рынок искусственного интеллекта в 2025 году составит 168 миллиардов рублей, и 50 миллиардов из них - это программное обеспечение и IT-сервисы, таким мнением с журналистами поделился генеральный директор MWS AI (входит в МТС Web Services) Денис Филиппов.