Новости

РПЦ призвало ограничить применение нейросетей

Патриаршая комиссия РПЦ по вопросам семьи, материнства и детства предложила запретить использование человеческих лиц и голосов в технологиях ИИ и ввести дисклеймер для нейросетей. Это нужно, чтобы человек понимал, что общается с роботом, убеждены в РПЦ.

«Необходимо установить запрет на применение в программах и технологиях ИИ человеческих голосов, лиц, т. е. образа и подобия человека и его качеств как живого существа. Фактически нужен запрет на антропоморфизацию программ, технологий, роботов, т. е. запрет на перенесение человеческого образа и его свойств на неодушевленные предметы», — говорит председатель комиссии иерей Фёдор Лукьянов.

Также, по словам священнослужителя, от нейросетей нужно полностью оградить несовершеннолетних, а технологию ChatGPT необходимо локализовать для России. Потому что Запад строит нейросети на основе своей этики, в России же она другая.

В Госдуме поддержали идею РПЦ ограничить применение нейросетей. Там опасаются, что искусственный интеллект может «постепенно перейти на службу вооружённым силам той или иной страны».

Зампред комитета Госдумы по информполитике, информационным технологиям и связи Андрей Свинцов сказал, что в ближайшие полгода-год на комитете точно будут обсуждать этичность использования дипфейков и нейросетей.

«Технология нейронных сетей свои решения принимает на основе информации, на которой она учится, а эта информация может быть не всегда корректной, а иногда и вообще лживой. Тогда все эти решения могут быть манипуляцией. Поэтому то, что РПЦ поднимает этот вопрос – абсолютно справедливо.

Думаю, ближайшие полгода-год, в том числе на площадке комитета будет обсуждаться вопрос с точки зрения этики и использования дипфейков и нейросетей. Уже сейчас в интернете огромное количество роликов, где качество дипфейка (замена лица на другое) очень высокое и обычный человек не в состоянии отличить. Поэтому это, действительно, очень чувствительная тема. Хорошо, что РПЦ от лица всех верующих поднимает этот вопрос».

Свинцов добавил, что при этом ограничения не должны останавливать развитие технологий.

«Конечно, это самая чувствительная грань, которую нам придется найти: где ограничения не будут мешать развитию технологий. Это очень сложный вопрос, потому что искусственный интеллект – это очень опасный инструмент в руках человечества. Особенно если этот искусственный интеллект постепенно перейдет на службу вооружённым силам той или иной страны. Это крайне опасно, и надо к этому подходить с большой осторожностью».

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Top.Mail.Ru