Ватикан объединил усилия с техническими гигантами Microsoft и IBM в разработке правил по этическому развитию искусственного интеллекта (ИИ) и призвал к регулированию таких технологий, как распознавание лиц, сообщает Reuters. Документ был представлен в рамках конференции по ИИ, которую организовала Папская академия защиты жизни.
В документе сообщается, что искусственный интеллект должен уважать частную жизнь человека и работать надежно и беспристрастно. Принцип принятия им решений должен быть прозрачным.
Папа Франциск в письме выразил обеспокоенность по поводу неконтролируемого распространения технологий искусственного интеллекта. В речи, зачитанной от его имени на конференции, особое внимание было уделено возможности злоупотребления технологией распознавания лиц, а также системами извлечения данных в коммерческих или политических целях, часто без ведома отдельных людей.
Понтифик отметил, что сложившаяся асимметрия, при которой избранные единицы знают о нас все, притупляет критическое мышление и понимание свободы. Папа Франциск считает, что серьезными рисками для демократического общества может обернуться ситуация, когда информированность и богатство сосредотачиваются в узких кругах.
Глава Ватикана заявил, что необходимо поощрять новые формы регулирования в целях содействия прозрачности и соблюдению этических принципов, особенно в отношении передовых технологий, которые имеют более высокий риск влияния на права человека.
Пока неясно, могут ли другие технологические компании подписаться под документом или как подписавшие его компании будут применять эти принципы. Присутствовавшие на конференции IBM и Microsoft заявили, что они отказывались от проектов, если чувствовали опасения в возможном неэтичном использовании их технологии искусственного интеллекта.
Римская конференция стала последним примером того, как Ватикан пытается быть впереди всех в области технологий и социальных вопросов, чтобы влиять на пионеров будущего, независимо от их вероисповедания. Официальные лица Ватикана заявили, что они могли бы подготовить материал для папского документа об ИИ, так же как встречи с учеными помогли сформировать эпохальную энциклику "Laudato Si" о защите окружающей среды в 2015 году.
В прошлом месяце глава Alphabet и Google Сундар Пичаи также призвал урегулировать использование технологий с применением искусственного интеллекта. По его мнению, контролировать развитие технологии должны как работающие над ней компании, так и государства.
Бывший гендиректор Google Сундар Пичаи, который теперь возглавляет головную компанию поисковика Alphabet, считает, что ИИ — одна из самых многообещающих технологий. Но одновременно, пишет Пичаи, в истории есть примеры, когда технологии оказывают двойной эффект, например интернет связал людей и дал им доступ к данным, но одновременно позволил легче распространяться дезинформации. Пичаи также приводит в пример изобретение двигателя внутреннего сгорания, внедрение которого спровоцировало многочисленные аварии.
Гендиректор Alphabet считает, что нужно вырабатывать международные стандарты работы с искусственным интеллектом, основанные на ключевых ценностях. По его словам, "международное согласование будет иметь решающее значение для обеспечения глобальных стандартов":
Для госрегулирования основанием может стать европейский закон о защите данных пользователей (GDPR), считает Пичаи. "Для некоторых сценариев, как использование алгоритмов в законных медицинских инструментах, в том числе кардиомониторах, существующие нормы — хорошая стартовая точка [для разработки регулирования]. Для более новых сфер, как самоуправляемые автомобили, правительствам придется ввести подходящие новые правила, которые учитывают все уместные издержки и преимущества", — заключил гендиректор Alphabet.
Google в 2018 г. сформировала свои принципы работы с искусственным интеллектом. Но положения, остающиеся на бумаге, ничего не значат, считает Пичаи, поэтому Google разработала специальные процедуры, например проверку на соответствие новых продуктов правам человека.
Еврокомиссия в феврале предложила правила для использования искусственного интеллекта (ИИ). При внедрении в сферах с высокой степенью риска, таких как здравоохранение и транспорт, системы искусственного интеллекта должны быть прозрачны, чтобы их можно было бы подчинить контролю со стороны человека. В документе указывается, что ИИ должен «соблюдать закон, этические нормы и быть надежным», и все эти составляющие должны учитываться в равной степени. В случае, если какая бы то ни было из них отсутствует, общество должно немедленно добиваться исправления этого недостатка.
Директива выделяет семь основных факторов этической разработки ИИ. Искусственный интеллект должен создаваться в поддержку субъектности человека, а не наоборот; он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками; граждане, в свою очередь, должны иметь контроль над своими данными, и эти данные не должны использоваться для причинения им вреда.
Пока директива существует в виде черновика. После того, как документ изучат и обсудят представители индустрии, ЕС планирует выработать набор конкретных правил, обязательных для исполнения всеми участниками рынка.