В Парламентской ассамблее Совета Европы накануне попытались успокоить всемирную истерию по поводу развития и внедрения во все сферы жизни искусственного интеллекта. Тенденции эти, как известно, не обошли стороной и Россию – 11 октября Президент подписал Национальную стратегию развития ИИ до 2030 года, в которой содержится множество элементов контроля и управления людьми машинными алгоритмами. И вот наконец на высоком политическом уровне начали обсуждаться этические вопросы, проблемы искажения реальности и человекоориентированности ИИ.

Выступая на заседании глобальной парламентской сети Организации экономического сотрудничества и развития (ОЭСР) в Париже, докладчик ПАСЕ по вопросу демократического управления Дебора Бергамини (Италия, EPP/CD) отметила, что ИИ начал показывать обществу «свою темную сторону, поскольку его можно использовать для манипулирования или искажения реальности».

В качестве примера возможной манипуляции г-жа Бергамини рассказала об избирательных процессах и микротаргетировании избирателей в режиме «онлайн». Существуют и этические вопросы внедрения ИИ в жизнь социума, для разрешения которых докладчик призвали объединить усилия правительств и организаций разных стран.

«Развитие ИИ является неотъемлемой частью «четвертой промышленной революции», заключила она, но процесс должен идти под контролем и при вмешательстве человека, поскольку без него (человека) не может быть ни демократии, ни справедливости», заключила Бергамини.

Стоит также добавить, что в начале апреля 2019 г. Еврокомиссия опубликовала документ – плод работы серьезных экспертов – под названием «Этическое руководство по созданию благонадежного искусственного интеллекта».

«Этическое измерение ИИ – это не какая-то премиальная характеристика или простое дополнение. Наше общество может что-то выиграть от технологий только в случае полного к ним доверия», – отмечает в прологу к документу член Еврокомиссии, отвечающий за развитие единого цифрового рынка ЕС, Андрус Ансип.

В 41-страничном руководстве указывается, что ИИ должен «соблюдать закон, этические нормы и быть надежным», и все эти составляющие должны учитываться в равной степени. В случае, если какая бы то ни было из них отсутствует, общество должно немедленно добиваться исправления этого недостатка. Также мы должны удостовериться, что системы искусственного интеллекта будут «человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу, чтобы способствовать совершенствованию условий человеческого существования и его свободе».

В тексте документа выделяется семь основных факторов этической разработки ИИ. Главное – он должен создаваться в поддержку субъектности человека, а не наоборот; он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками; граждане, в свою очередь, должны иметь контроль над своими данными, и эти данные не должны использоваться для причинения им вреда.

Кроме того, общественность должна иметь полное представление о том, какие работы по созданию ИИ ведутся, а всякая разработка искусственного интеллекта должна вестись с учетом ключевой идеи: совершенствование общества и окружающей среды. Также должны должны создаваться механизмы, обеспечивающие «ответственность ИИ-систем» за результаты их работы.

Стоит отметить, что данный документ, составленный экспертами Еврокомиссии, носит черновой характер. После изучения и консультаций с представителями IT-индустрии вышеописанные правила могут существенно поменяться. В любом случае, очевидно, что в ЕС крайне обеспокоены потенциальными рисками, связанными с внедрением ИИ во все сферы общественной жизни, и намерены выработать набор конкретных правил, обязательных для исполнения всеми игроками рынка. России в этом отношении стоит взять пример с «уважаемых партнеров» и не заниматься строительством замков из песка под руководством «цифровых трансформаторов» вроде банкстера-трансгуманиста Германа Грефа, не способного обеспечить защиту информации даже для клиентов собственного банка.

РИА Катюша

Подписывайтесь на наш Телеграм

ПОДПИСЫВАЙТЕСЬ НА НАШУ ГРУППУ ВКОНТАКТЕ

Поддержать наш проект пожертвованием
14 Октября 2019 в 06:45
1393