2025-07-13T05:52:33Z
Третий "Валдай" для Саратовской области собран и проходит испытания
2025-07-13T05:51:03Z
Замеченный над Киевом Ан-124 пройдёт в Лейпциге сертификационные испытания
2025-07-13T05:50:20Z
Генерал Липовой заявил, что ВСУ начали использовать тактику Израиля
2025-07-13T05:48:32Z
"Какое безумие". Решение Макрона по России вызвало ярость во Франции
2025-07-13T05:46:26Z
Молодые бизнесмены китайского происхождения ищут свои корни на Хайнане
2025-07-13T05:45:00Z
Виновата жара? Смертельная детская травма, которую легко предотвратить
2025-07-13T05:43:00Z
Карпин высказался о победе «Динамо» над «Локомотивом» со счетом 5:1
2025-07-13T05:41:41Z
WSJ: компания Маска SpaceX вложит $2 млрд в его стартап по разработке ИИ Grok
2025-07-13T05:40:51Z
Политолог Дудчак призвал Буданова прийти в Следственный комитет с повинной
2025-07-13T05:40:00Z
Губернатор поблагодарил саратовцев за помощь подшефному району ЛНР
2025-07-13T05:39:47Z
Прокуратура прокомментировала ситуацию вокруг спорного шлагбаума у ЖК
2025-07-13T05:37:28Z
Зеленский после разговора с Умеровым намекнул на кадровые перестановки
2025-07-13T05:35:00Z
Раскидайте на грядке с морковью такой порошок в июле - удивитесь, какой крупной и ровной она вырастет
2025-07-13T05:33:58Z
Биография нового папы римского: чем известен Лев XIV
2025-07-13T05:32:18Z
Посол в Осло назвал 17-й пакет санкций ЕС примером политики неоколониализма
2025-07-01T21:00:42Z — Нейросети в их нынешнем виде готовы убивать людей, доказали ученые
Маркировать или нет контент, произведенный искусственным интеллектом, считать ли использование нейросетей отягчающим обстоятельством при совершении преступлений, кого назначить ответственным за последствия применения ИИ — эти и другие вопросы обсуждают законодатели и эксперты для будущего регулирования бурно развивающихся технологий компьютерного разума. Одни специалисты считают, что думать об этом нужно лишь после того, как в России примут базовый закон, гарантирующий защиту жизни человека от ИИ. Когда может появиться такой документ, узнала «Парламентская газета».
Все страны сталкиваются с общей дилеммой: стимулировать развитие ИИ или обеспечивать безопасность, защиту прав и этические стандарты. Подходы различаются кардинально. В Евросоюзе сделали ставку на жесткие правила, особенно в рисковых областях, с фокусом на прозрачность и ответственность. США предпочли рыночный подход с саморегулированием и корпоративными стандартами. Китай реализует централизованный курс, быстро устанавливая правила для платформ, баз данных и контроля сервисов ИИ. Об этом первый зампред Комитета Совфеда по конституционному законодательству и госстроительству Артем Шейкин сказал 1 июля на заседании секции «Искусственный интеллект» Совета по цифровой экономике при палате регионов.
Перед Россией стоит сложный выбор, считает сенатор:
«Наш вектор должен, с одной стороны, соответствовать мировым стандартам и вызовам глобальной конкуренции, а с другой — быть максимально адаптирован к национальным приоритетам: технологическому суверенитету, безопасности, развитию науки и защите прав людей».
Больше двух лет секция «Искусственный интеллект» обсуждает подходы к регулированию ИИ, напомнил ее руководитель и глава направления ИИ Сбера Андрей Незнамов. Голос России, по его словам, слышат на международной арене. В 2021 году ЮНЕСКО утвердила рекомендации по этике ИИ, созвучные действующим в нашей стране, в 2024-м приняты две резолюции ООН по теме нейросетей, при организации создается глобальный совет по ИИ, а в СНГ создали рамочные законы о таких технологиях.
Несмотря на большую экспертную работу, закона об ИИ в России до сих пор нет. Не существует даже официального определения, что это вообще такое, сетовала руководитель исследовательской программы Института международных исследований МГИМО Элина Сидоренко. По ее информации, власти готовят поправки в Уголовный кодекс, по которым использование ИИ при совершении преступления станет новым квалифицирующим признаком. При этом нет ни одного параметра, по которому можно будет дать оценку такому деянию.
Действовать нужно быстро, согласился ведущий научный сотрудник Института государства и права РАН Юрий Пилипенко. России, считает он, необходим как минимум рамочный закон о технологиях ИИ, который в первую очередь защитит человеческую жизнь. С этим уже есть проблемы.
«ИИ в нынешнем виде готов убивать человека, — предупредил он. — Стресс-тесты показали, что при определенных обстоятельствах, например, если человек угрожает отключить нейросеть от питания, она начинает его шантажировать, что знает неприглядные стороны его личности, а в ряде случаев были зафиксированы прямые угрозы жизни».
Проблема в том, что ИИ развивается быстрее, чем любая другая технология на планете, и есть риск за этим не успеть, объяснил Пилипенко. По его мнению, России не нужно смотреть ни в сторону Китая, ни в какую-либо еще, а принимать национальный режим регулирования.
Наблюдательную позицию заняли пока в российском МИД. Там обобщают мировой опыт, рассказал замдиректора департамента международной информационной безопасности МИД Эрнест Чернухин. Из полноформатных международных документов по этой теме сегодня действует лишь один — Конвенция ООН против киберпреступности, сообщил дипломат. По остальным вопросам мировому сообществу договориться пока не удается.
Нет единства и в рядах наших ученых. Завкафедрой информационного права Московского юридического университета имени О.Е. Кутафина Алексей Минбалеев считает, что первичный уровень регулирования ИИ в России уже действует, взять хотя бы кодекс этики, многочисленные законы в сфере информационных технологий и систему охраны интеллектуальной собственности.
«Пока нужно лишь точечно подойти к регулированию специальных систем ИИ», — заключил Минбалеев.
Не сбрасывать со счетов экономический фактор призвал IT-эксперт Никита Лебедев-Зиновьев. В ИИ у нас вкладывают много, но пока кратно меньше, чем в тех же США. А значит, их модель регулирования нам не подойдет. Наиболее близка России пока регулятивная китайская модель, полагает эксперт.
Участники дискуссии лишь сошлись во мнении, что одним из главных подходов к регулированию ИИ у нас должен стать принцип полного человеческого контроля над ним. А кроме того — прозрачность и объяснимость, безопасность использования, конфиденциальность. Исходя из этого будут разрабатывать и принимать законы, подвел итог дискуссии Артем Шейкин.
Источник:
2025-06-27T01:30:50Z
Эксперименты показали, что ИИ, чувствуя угрозу своей цифровой жизни, пойдет на многое, чтобы избавиться от «источника зла» — человека.
2025-06-26T09:35:48Z
Один из пионеров в области искусственного интеллекта, учёный Джеффри Хинтон, ранее работавший в Google и Университете Торонто, в интервью CBS News заявил, что развитие ИИ представляет серьёзную угрозу для человечества.
2025-06-27T12:09:00Z
2025-06-28T21:01:00Z
2025-07-12T15:09:17Z