Зачем нужны кодексы этики для искусственного интеллекта

Дата публикации: 15 ноября 2021

Зачем нужны кодексы этики для искусственного интеллекта

Фото: depositphotos.com

Еще в 1942 году Айзек Азимов сформулировал три закона поведения для роботов. Тогда эти правила были частью художественного произведения и философской концепции, которую подхватили другие фантасты. Однако технологии развиваются, умения искусственного интеллекта (ИИ) растут: в 2017 году робот София даже получила официальное гражданство. Кстати, ранее София эпатажно заявляла, что будет убивать людей и уничтожит человечество, но затем сказала, что всего лишь пошутила.

Так или иначе, технологический прогресс — не только новые возможности, но и новые вызовы, а еще — широкий круг этических вопросов. Например, какие знания о пользователе ИИ может аккумулировать, какие советы давать, где граница допустимого вмешательства? Как обезопасить взаимодействие человека и ИИ, кто принимает окончательные решения и несет ответственность за негативные последствия? Некоторые ответы можно найти в российском Кодексе этики в сфере искусственного интеллекта (КЭСИИ), подписанном в конце октября. Нужны ли обществу подобные документы и повлияют ли они на практику использования ИИ?

Кодекс этики как необходимость времени

Для России КЭСИИ — первый подобный документ, но в мировом сообществе много аналогичных разработок. Например, ЮНЕСКО занимается этим вопросом с 2019 года, и в 2020-м появился Первый проект рекомендации об этических аспектах искусственного интеллекта. В 2020-м было создано Глобальное партнерство по ИИ, куда вошли Евросоюз и еще 14 государств. Его основные задачи — выработка совместных решений по ответственному использованию, развитию, теории и практике искусственного интеллекта.

Помимо международных, приняты и многочисленные национальные документы. В исследовании РАЭК и Microsoft отмечается, что на декабрь 2020-го у 32 стран уже были нацстратегии развития ИИ и разрабатываются еще в 22. В сентябре 2021-го Кодекс этики ИИ появился в Китае. Что касается России, то создание такого документа было вопросом времени — о его необходимости говорили на самом высоком уровне, включая президента.

Искусственному интеллекту и его разработчикам действительно нужны границы, потому что новые технологии способны сильно влиять на нас, наше мировоззрение и решения. Иногда это делается без злого умысла или желания манипулировать, а скорее в угоду бизнеса. Например, проблема информационного пузыря, или пузыря фильтров, вроде выглядит безобидно. О ней говорят, когда алгоритмы соцсетей и поисковых систем собирают данные о пользователе и показывают ему только тот контент, который ему потенциально интересен. Человек посмотрел смешное видео с животными, и ему дается подборка аналогичных роликов, а другой получает рекомендации рецептов. Казалось бы, что плохого?

Вместе с тем, из-за того что умные алгоритмы стремятся удержать пользователя на сайте и подбирают ему контент по интересам, он может оказаться запертым в информационном пузыре, у него сформируется однобокая картина. Как это работает, хорошо видно на примере постов и новостей о коронавирусе, когда противникам вакцинации или чувствующим излучение 5G-вышек показывают многочисленные материалы, укрепляющие веру в подобные теории. Аналогично принцип работает и в обратную сторону, пугая самыми страшными случаями и последствиями COVID-19. В итоге формируются группы с противоположными, доведенными до крайности взглядами, но ни у одной из них нет объективной картины.

Каким должен быть этичный ИИ 

В целом этические кодексы, включая российский, очерчивают схожий круг проблем, что само по себе показывает их актуальность для всего мира. Приоритет этичного искусственного интеллекта — служить на пользу людям. ИИ не должен допускать дискриминации и несправедливости, должен защищать безопасность и приватность (в том числе личные данные), быть подотчетным человеку; его действия должны быть прозрачными. Пользователь должен понимать, когда взаимодействует с ИИ, и у него должна быть возможность прекращать такое взаимодействие.

Важные положения КЭСИИ — финальные решения принимает человек, он же несет ответственность за негативные последствия. Кодекс ставит в приоритет риск-ориентированный подход. В частности, пункт 1.5 рекомендует:

«Проводить оценку потенциальных рисков применения СИИ, включая социальные последствия для человека, общества и государства, гуманитарного воздействия СИИ на права и свободы человека, <…> осуществлять долгосрочный мониторинг проявления таких рисков». 

Кодекс также призывает к «сохранению и развитию когнитивных способностей человека и его творческого потенциала» (пункт 1.1), «сохранению автономии и свободы воли человека» (пункт 1.2). Здесь же указывается, что:

«Акторы ИИ должны на этапе создания СИИ прогнозировать возможные негативные последствия для развития когнитивных способностей человека и не допускать разработку СИИ, которые целенаправленно вызывают такие последствия». 

Иногда сложно провести четкую грань между помощью со стороны ИИ и негативными последствиями для когнитивных способностей. Например, мы можем не запоминать информацию (дни рождения и даты совещаний, номера телефонов и адреса), потому что Сири или Алиса напомнят расписание на день, наберут нужного абонента, построят маршрут от двери до двери. Технологии удобны, и хотя удобство порой расслабляет, скорее всего, в подобных случаях человек сам будет решать, что он доверит искусственному интеллекту. Распространение калькуляторов отучило многих считать в уме, а это даже не ИИ, и вряд ли мы откажемся от калькуляторов для умственной гимнастики.

А что на практике?

Российский этический кодекс не может заставить акторов что-либо сделать — у него нет таких полномочий: он лишь рекомендует. Присоединение к нему добровольно, но присоединившиеся обязуются соблюдать положения. Это форма так называемого мягкого регулирования; она тем не менее может стать основой для будущего регулирования, которое закрепит права и обязанности разработчиков и компаний, использующих ИИ.

Пока же кодекс обозначает направления для этичного развития технологий и советует акторам объединяться. Например, для проверки информации о сильном, или универсальном, искусственном интеллекте. Он самосовершенствуется до такой степени, что может полностью изменить изначальный код, а также принимает решения, обучается, использует предыдущий опыт. Некоторые исследователи говорят, что у сильного ИИ будет сознание (или его аналог) — даже самосознание. Другие, впрочем, утверждают, что создание такого ИИ невозможно.

Так или иначе, этический кодекс обозначает проблемы — существующие или потенциальные — и предлагает вместе их решать. Думается, это одна из главных задач такого документа. Как показывает пример информационного пузыря или навязчивого сбора пользовательских данных, исследователи и бизнес порой увлекаются своими целями и забывают об этической стороне.

Или рассмотрим такие положения кодекса, как прекращение взаимодействия по желанию человека и идентификация ИИ. При общении с техподдержкой в чате не всегда можно понять, кто на той стороне: чат-бот или «живой» специалист. Кроме того, пользователи жалуются, что подолгу не могут переключиться на техспециалиста и вынуждены тратить время на бота, хотя он не в состоянии помочь. Люди даже собирают лайфхаки, как обойти ИИ. Если компании действительно будут придерживаться этических принципов, подобных злоупотреблений, как и манипуляций данными и приватностью, станет меньше.

Важно отметить, что кодекс не является статичным документом — его положения планируется пересматривать с учетом развития технологий ИИ, а также эволюции общественных представлений об этике использования технологий ИИ. Таким образом, принятие кодекса — только первый шаг в направлении к созданию этичного искусственного интеллекта, участниками которого должны стать разработчики, пользователи, представители научного сообщества и государства.

Вместо заключения

Попытки предусмотреть разные сценарии, даже самые пессимистичные и те, до которых искусственный интеллект пока не «дорос», выглядят правильной позицией. Лучше заранее обозначить границы и стараться их соблюдать, чем потом убедиться, что опасения Илона Маска были пророческими (напомним, что он назвал ИИ «основной угрозой для человечества»).

При этом важно понимать, что ИИ, как и любые программы, — инструмент, а следовательно, сам по себе не является хорошим или плохим и может приносить как благо, так и проблемы. ЮНЕСКО отмечает, что искусственный интеллект поможет 11 миллионам учеников получить среднее образование, способствует борьбе с COVID-19 и решению экологических проблем, но усилит гендерное неравенство.

КЭСИИ подчеркивает ответственность человека за внедрение ИИ и последствия. Именно человеку нужно просчитать риски и убедиться, что технология безопасна, защищена, не нарушает границы, а главное — приносит пользу. Тогда блага от новейших технологий будет намного больше, чем нежелательных последствий или злоупотреблений.

А чтобы у российских разработчиков и компаний были единые ориентиры, в том числе ответы на этические вопросы, и был принят КЭСИИ. Внимание государства к отрасли, связанной с ИИ, подтверждает актуальность и необходимость документа. Мы видим: Россия заинтересована в развитии и более широком использовании ИИ — об этом говорят, в частности, инициативы последних двух лет. Например, в 2019 году утверждена Национальная стратегия развития искусственного интеллекта, в 2020-м запущен федеральный проект «Искусственный интеллект», а в 2021-м в его рамках прошла серия хакатонов и лекций по ИИ.

Источник: https://www.if24.ru/etika-dlya-ai/