Искусственный интеллект занимает важное место в жизни современного человека. Мы доверяем ИИ выбор маршрута через навигатор, мы доверяем нашу безопасность через системы охраны, мы доверяем пароли от банковских счетов и многое другое. Но так ли надежен ИИ и чем он руководствуется при принятии решений? Есть ли гарантия, что ИИ сделает правильный выбор в пользу человека?
Чтобы ИИ был надежен и безопасен, в его разработку необходимо вложить базовые человеческие принципы. Так считают многие разработчики компьютерных технологий, включая компании Google и Microsoft. Последняя в свою очередь провела форум, на котором определила 4 принципа этичности ИИ и назвала подход к решению этого вопроса FATE:
- Fairness — справедливость
- Accountability — подотчетность
- Transparency — прозрачность
- Ethics — этичность
4 принципа подхода FATE
- FairnessВ отличие от человека, искусственный интеллект не должен иметь никаких предубеждений при принятии решения. Ни цвет кожи, ни вероисповедание, ни национальность, ни гендерная принадлежность не должны влиять на ИИ. То есть решения должны быть справедливыми и приниматься без предрассудков и стереотипов. Для этого при разработке компьютерной технологии необходимо создавать команду программистов из представителей различных социальных групп. В таком случае ИИ будет обеспечен разнообразностью и репрезентативностью данных, на основе которых сможет обучаться.
- AccountabilityВсе, кто занимается разработкой искусственных технологий и имеет к этому отношение, должны нести ответственность за свою работу. Поэтому ИИ обязан иметь алгоритмическую подотчетность для устранения ошибок в его работе.
- TransparencyПоскольку ИИ все больше становится частью жизни человека, информация об алгоритме его работы должна быть доступна и понятна каждому пользователю. Люди должны видеть как происходит процесс принятия решений, чтобы иметь возможность предвидеть риски или ошибки.
- EthicsОсновываясь на человеческих ценностях искусственный интеллект должен проявлять человечность. Создавая ИИ, важно предусмотреть и исключить потенциальные препятствия в разработанном продукте, которые могли бы ограничить определенные группы людей. Доступ к корректировкам системы ИИ должен всегда быть у человека. Ведь искусственный интеллект — это только инструмент, а человек — управляющий им.
Больше интересных и актуальных статей вы найдете в нашем Блоге.