Человеческую жизнь предложили защитить от искусственного интеллекта

Все новости

2025-07-13T05:52:33Z

Третий "Валдай" для Саратовской области собран и проходит испытания

2025-07-13T05:51:03Z

Замеченный над Киевом Ан-124 пройдёт в Лейпциге сертификационные испытания

2025-07-13T05:50:20Z

Генерал Липовой заявил, что ВСУ начали использовать тактику Израиля

2025-07-13T05:48:32Z

"Какое безумие". Решение Макрона по России вызвало ярость во Франции

2025-07-13T05:46:26Z

Молодые бизнесмены китайского происхождения ищут свои корни на Хайнане

2025-07-13T05:45:00Z

Виновата жара? Смертельная детская травма, которую легко предотвратить

2025-07-13T05:43:00Z

Карпин высказался о победе «Динамо» над «Локомотивом» со счетом 5:1

2025-07-13T05:41:41Z

WSJ: компания Маска SpaceX вложит $2 млрд в его стартап по разработке ИИ Grok

2025-07-13T05:40:51Z

Политолог Дудчак призвал Буданова прийти в Следственный комитет с повинной

2025-07-13T05:40:00Z

Губернатор поблагодарил саратовцев за помощь подшефному району ЛНР

2025-07-13T05:39:47Z

Прокуратура прокомментировала ситуацию вокруг спорного шлагбаума у ЖК

2025-07-13T05:37:28Z

Зеленский после разговора с Умеровым намекнул на кадровые перестановки

2025-07-13T05:35:00Z

Раскидайте на грядке с морковью такой порошок в июле - удивитесь, какой крупной и ровной она вырастет

2025-07-13T05:33:58Z

Биография нового папы римского: чем известен Лев XIV

2025-07-13T05:32:18Z

Посол в Осло назвал 17-й пакет санкций ЕС примером политики неоколониализма

Человеческую жизнь предложили защитить от искусственного интеллекта

Человеческую жизнь предложили защитить от искусственного интеллекта

2025-07-01T21:00:42Z — Нейросети в их нынешнем виде готовы убивать людей, доказали ученые


Маркировать или нет контент, произведенный искусственным интеллектом, считать ли использование нейросетей отягчающим обстоятельством при совершении преступлений, кого назначить ответственным за последствия применения ИИ — эти и другие вопросы обсуждают законодатели и эксперты для будущего регулирования бурно развивающихся технологий компьютерного разума. Одни специалисты считают, что думать об этом нужно лишь после того, как в России примут базовый закон, гарантирующий защиту жизни человека от ИИ. Когда может появиться такой документ, узнала «Парламентская газета».

Все страны сталкиваются с общей дилеммой: стимулировать развитие ИИ или обеспечивать безопасность, защиту прав и этические стандарты. Подходы различаются кардинально. В Евросоюзе сделали ставку на жесткие правила, особенно в рисковых областях, с фокусом на прозрачность и ответственность. США предпочли рыночный подход с саморегулированием и корпоративными стандартами. Китай реализует централизованный курс, быстро устанавливая правила для платформ, баз данных и контроля сервисов ИИ. Об этом первый зампред Комитета Совфеда по конституционному законодательству и госстроительству Артем Шейкин сказал 1 июля на заседании секции «Искусственный интеллект» Совета по цифровой экономике при палате регионов.

Перед Россией стоит сложный выбор, считает сенатор:

«Наш вектор должен, с одной стороны, соответствовать мировым стандартам и вызовам глобальной конкуренции, а с другой — быть максимально адаптирован к национальным приоритетам: технологическому суверенитету, безопасности, развитию науки и защите прав людей».

Больше двух лет секция «Искусственный интеллект» обсуждает подходы к регулированию ИИ, напомнил ее руководитель и глава направления ИИ Сбера Андрей Незнамов. Голос России, по его словам, слышат на международной арене. В 2021 году ЮНЕСКО утвердила рекомендации по этике ИИ, созвучные действующим в нашей стране, в 2024-м приняты две резолюции ООН по теме нейросетей, при организации создается глобальный совет по ИИ, а в СНГ создали рамочные законы о таких технологиях.

Несмотря на большую экспертную работу, закона об ИИ в России до сих пор нет. Не существует даже официального определения, что это вообще такое, сетовала руководитель исследовательской программы Института международных исследований МГИМО Элина Сидоренко. По ее информации, власти готовят поправки в Уголовный кодекс, по которым использование ИИ при совершении преступления станет новым квалифицирующим признаком. При этом нет ни одного параметра, по которому можно будет дать оценку такому деянию.

Действовать нужно быстро, согласился ведущий научный сотрудник Института государства и права РАН Юрий Пилипенко. России, считает он, необходим как минимум рамочный закон о технологиях ИИ, который в первую очередь защитит человеческую жизнь. С этим уже есть проблемы.

«ИИ в нынешнем виде готов убивать человека, — предупредил он. — Стресс-тесты показали, что при определенных обстоятельствах, например, если человек угрожает отключить нейросеть от питания, она начинает его шантажировать, что знает неприглядные стороны его личности, а в ряде случаев были зафиксированы прямые угрозы жизни».

Проблема в том, что ИИ развивается быстрее, чем любая другая технология на планете, и есть риск за этим не успеть, объяснил Пилипенко. По его мнению, России не нужно смотреть ни в сторону Китая, ни в какую-либо еще, а принимать национальный режим регулирования.

Наблюдательную позицию заняли пока в российском МИД. Там обобщают мировой опыт, рассказал замдиректора департамента международной информационной безопасности МИД Эрнест Чернухин. Из полноформатных международных документов по этой теме сегодня действует лишь один — Конвенция ООН против киберпреступности, сообщил дипломат. По остальным вопросам мировому сообществу договориться пока не удается.

Нет единства и в рядах наших ученых. Завкафедрой информационного права Московского юридического университета имени О.Е. Кутафина Алексей Минбалеев считает, что первичный уровень регулирования ИИ в России уже действует, взять хотя бы кодекс этики, многочисленные законы в сфере информационных технологий и систему охраны интеллектуальной собственности.

«Пока нужно лишь точечно подойти к регулированию специальных систем ИИ», — заключил Минбалеев.

Не сбрасывать со счетов экономический фактор призвал IT-эксперт Никита Лебедев-Зиновьев. В ИИ у нас вкладывают много, но пока кратно меньше, чем в тех же США. А значит, их модель регулирования нам не подойдет. Наиболее близка России пока регулятивная китайская модель, полагает эксперт.

Участники дискуссии лишь сошлись во мнении, что одним из главных подходов к регулированию ИИ у нас должен стать принцип полного человеческого контроля над ним. А кроме того — прозрачность и объяснимость, безопасность использования, конфиденциальность. Исходя из этого будут разрабатывать и принимать законы, подвел итог дискуссии Артем Шейкин.

Читайте также:

2025-06-27T01:30:50Z

Шантаж и угрозы от ИИ. Почему искусственный интеллект может убить людей

Эксперименты показали, что ИИ, чувствуя угрозу своей цифровой жизни, пойдет на многое, чтобы избавиться от «источника зла» — человека.

2025-06-26T09:35:48Z

Создатель нейросетей из Google предостерёг: ИИ может погубить человечество

Один из пионеров в области искусственного интеллекта, учёный Джеффри Хинтон, ранее работавший в Google и Университете Торонто, в интервью CBS News заявил, что развитие ИИ представляет серьёзную угрозу для человечества.

2025-06-27T12:09:00Z

$100 миллионов на спасение ИИ от коммерциализации: новый институт обещает независимые исследования

2025-06-28T21:01:00Z

Искусственный интеллект научился программировать сам себя: новый алгоритм Дарвина-Гёделя позволяет кодирующим агентам самосовершенствоваться

2025-07-12T15:09:17Z

РЕН ТВ раскроет способы защиты от мошенничества с искусственным интеллектом