Этические аспекты правового регулирования общественных отношений в условиях цифровизации
Нынешний этап в развитии технического прогресса называют цифровой революцией, имея в виду те принципиальные изменения в организации производства, бизнеса, рынка труда, к которым ведет широкое внедрение современных цифровых технологий. Последняя цифровая революция, связанная с разработкой искусственного интеллекта (ИИ) и конвергенцией технологий, обостряет старые нравственные конфликты в обществе и порождает новые этические проблемы. В своих крайних требованиях технический прогресс и этика противоречат и взаимно исключают друг друга.
Неразрешенность этических дилемм препятствует практическому внедрению в жизнь достижений технического прогресса. Правовое регулирование в условиях технологического рывка оказывается в сложной ситуации. С одной стороны, нужно обеспечить условия для технического прогресса, возможности для практического применения новейших научных достижений. С другой стороны, нужно сохранить человечность и гуманность, обеспечив выживание человечества как вида, наделенного нравственным чувством. Все правила, которые должны быть разработаны и юридически закреплены на международном и национальном уровнях для обеспечения безопасной разработки и функционирования в социуме систем ИИ, можно разделить на две группы: правила для искусственного интеллекта и правила для естественного интеллекта.
Первая группа касается стандартов и ограничений деятельности, которые должны быть заложены в программы ИИ на уровне программного кода для того, чтобы гарантировать, с одной стороны, безопасность социума и отдельных индивидов при взаимодействии с ИИ, а с другой – эффективность и высокую результативность функционирования аппаратов с ИИ. Вторая группа правил представляет собой требования к разработчикам и производителям машин с ИИ, требований, которые должны обеспечить те же самые безопасность и результативность.
В своем содержательном ядре, в части базовых принципов функционирования ИИ в обществе, эти группы правил совпадают. В любом случае, этика взаимодействия человека и робота или роботов друг с другом – это проблемы людей. Дж. Вейценбаум, американский исследователь ИИ, еще в 1976 г. писал, что этические проблемы станут основными при разработке умных машин, поскольку пределы применимости вычислительных машин, по существу, поддаются формулировке лишь в терминах долженствования139. В научной литературе последнего времени явственно прослеживаются тенденция гуманизации роботов (юнитов искусственного интеллекта).
Идея очеловечивания антропоморфных роботов представляется нам опасной иллюзией, порожденной очарованием технического прогресса. В связи с изложенным радует сдержанная позиция профессионального сообщества по вопросу правосубъектности юнитов ИИ. В рамках VI Международного юридического форума (IP Форума) в феврале 2018 г. кафедра интеллектуальных прав МГЮА провела круглый стол «Проблемы этической и правовой регламентации систем искусственного интеллекта (робототехники)».
В ходе мероприятия были представлены результаты опроса, проведенного кафедрой среди ученых, специализирующихся в сфере материального гражданского (предпринимательского) права и гражданского (арбитражного) процесса. 75 % опрошенных не поддержали идею наделения роботов правосубъектностью. Профессор П.П. Баранов, считающий очеловечивание роботов не менее важной проблемой, чем роботопреступность, сформулировал базовые принципы, которые должны быть отражены в законодательстве о робототехнике и искусственном интеллекте: 1. Несомненный приоритет прав человека и их защиты в сфере использования роботов и искусственного интеллекта. 2. Ответственность разработчиков и собственников роботов за то, что они сделают (при этом следует учитывать автономность роботов в принятии решений: чем эта автономность выше, тем меньшую ответственность должен нести владелец робота). 3. Робот является только вещью, его нельзя гуманизировать или считать личностью. 4. Введение специального страхования ответственности за причиненный роботом вред (по аналогии с ОСАГО), что позволит пострадавшему от деятельности робота гарантированно получить компенсацию. 5. Жесткий государственный контроль за производством и распространением автономных военных роботов, потому что создание роботов, которые способны самостоятельно принимать решение об убийстве противника, вполне вероятно140.
8 апреля 2019 года группа экспертов при Европейской комиссии представила Руководящие этические принципы надежного искусственного интеллекта, которые должны будут соблюдаться компаниями и правительствами при разработке и использовании искусственного интеллекта141. Эти принципы не предлагают правила поведения для роботов, но затрагивают важные юридические и этические проблемы, которые могут возникнуть в обществе при использовании ИИ в таких сферах, как здравоохранение, образование и потребительские технологии.
В Руководящих принципах предлагается набор из 7 ключевых требований, которым должны соответствовать системы ИИ, чтобы считаться заслуживающими доверия: – Человеческое содействие и надзор: ИИ не должен рушить автономию человечества, манипулировать людьми или принуждать их к чему-либо, а люди, в свою очередь, должны иметь возможность вмешиваться и контролировать каждое решение, принимаемое программным обеспечением. – Техническая надёжность и безопасность: системы ИИ должны быть устойчивыми к внешним атакам. – Конфиденциальность и управление данными: персональные данные, используемые ИИ-системами, должны оставаться конфиденциальными. – Прозрачность: решения, принимаемые программным обеспечением, должны «пониматься и отслеживаться людьми». – Разнообразие, недискриминация и справедливость: предоставляемые ИИ-системами услуги, должны быть доступны всем, независимо от возраста, пола, расы или других факторов. – Экологическое и социальное благополучие: системы искусственного интеллекта должны быть экологически ответственными и способствовать позитивным социальным изменениям. – Подотчетность: ИИ-системы должны быть защищены существующими средствами защиты корпоративной информации. О негативных воздействиях систем необходимо сообщать заранее. Можно видеть, что содержательно принципы робототехники, предлагаемые на доктринальном уровне и те, которые разработаны Европейской комиссией, перекликаются.
В приводимых вариантах отсутствует «очеловечивание» юнитов ИИ и прослеживается нацеленность на защиту прав человека и социальных интересов. Представляется, что такой подход следует признать оптимальным для правового регулирования отношений с использованием систем ИИ на сегодняшний день. Технический прогресс должен быть направлен на улучшение качества жизни людей. Следует использовать сдерживающие механизмы, чтобы не распространять элементы правового статуса человека на юниты искусственного интеллекта. Правовое регулирование процедур разработки и использования систем ИИ и АРА остро необходимо. Авторы считают оптимальным следующий алгоритм, который поможет закрыть регулятивный вакуум. На первом этапе необходимо принять концептуальные документы, закрепляющие этические принципы разработки и использования систем ИИ, по аналогии с теми, что были созданы Европейской комиссией. Необходимо указать, что российский документ может быть более содержательным и подробным, так как на доктринальном уровне уже имеется несколько разработок.
С точки зрения юридической формы такой документ необходимо облечь в форму документа стратегического планирования или политико-правового акта. Учитывая пробельность правового поля в рассматриваемых отношениях, мы считаем, что разумным решением будет издание отдельного концептуального документа по вопросам этики ИИ. В дальнейшем такой документ должен получить развитие в нормативном правовом акте, предусматривающем план издания правовых актов для реализации стратегического документа. На третьем этапе должны быть изданы отдельные акты нормативнотехнического характера, закрепляющие программные ограничения и механизмы контроля надежности создаваемых систем ИИ, а также внесены изменения в конституционное, гражданское, административное и финансовое законодательство в части регулирования отношений с использованием систем ИИ в названных сферах.
Литература
1. Ethics guidelines for trustworthy AI. An official website of the European Union. European commission. [Электронный ресурс]. URL: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (Дата обращения: 25.09.2019). 2. Баранов П.П. Правовое регулирование робототехники и искусственного интеллекта в России: некоторые подходы к решению проблемы / П. П. Баранов // Северо-Кавказский юридический вестник. – 2018. – № 1. 3. Вейценбаум Дж. Возможности вычислительных машин и человеческий разум. От суждений к вычислению / пер. с англ. И.Б. Гуревича. – М.: Радио и связь, 1982. 4. Общее учение о правовом порядке: восхождение правопорядка: монография. Т. 1 / отв. ред. Н.Н. Черногор. – М.: 2019. 5. Философия права: учебное пособие / отв. ред. Н.Н. Черногор, О.Ю. Рыбаков. – М., 2018.
Гайворонская Яна Владимировна
Другие новости и статьи
Теория и практики специальных действий: 1951-1991 годы »
Запись создана: Понедельник, 27 Апрель 2020 в 6:31 и находится в рубриках Новости.
метки: цифровизация
Темы Обозника:
COVID-19 В.В. Головинский ВМФ Первая мировая война Р.А. Дорофеев Россия СССР Транспорт Шойгу армия архив война вооружение выплаты горючее денежное довольствие деньги жилье защита здоровье имущество история квартиры коррупция медикаменты медицина минобороны наука обеспечение обмундирование оборона образование обучение оружие охрана патриотизм пенсии подготовка помощь право призыв продовольствие расквартирование реформа русь сердюков служба спецоперация сталин строительство управление финансы флот эвакуация экономика