Искусственный интеллект (ИИ) появился в качестве революционной технологии 21-го века, с эффективным применением в различных сферах жизни, начиная с медицинской диагностики и лечении до автономных систем, которые собирают данные через сенсорные сети и «учатся» на опыте.
Принимая во внимание слова Вольтера, предупреждающего, что с большой властью приходит большая ответственность, и осознавая множество моральных и этических проблем, связанных с использованием ИИ, наш Институт действует в соответствии со следующими этическими принципами:
- 1. Социальное благополучие – иногда называемое «ИИ для добра», системы ИИ должны определять приоритеты благ для человечества и охраны окружающей среды, подчеркивая устойчивость и соблюдая принцип Гиппократа «во-первых, не навреди».
- 2. Ценности, ориентированные на человека – системы ИИ должны уважать права человека, верховенство закона и демократические ценности свободы и достоинства. Системы ИИ должны уважать неприкосновенность частной жизни и анонимность людей, включая защиту данных и соблюдение ценностей равенства, недискриминации, разнообразия, социальной справедливости и международно признанных трудовых прав.
- 3. Прозрачность – системы ИИ используют алгоритмы и методики обучения, которые могут быть непостижимыми, поэтому необходимо обеспечить ответственную прозрачность структуры системы, методологий, возможностей, ограничений и рисков, чтобы люди могли понимать и оспаривать результаты.
- 4. Техническая устойчивость и надежность – система ИИ должна работать безопасным и надежным образом, с надежной технической устойчивостью и способностью обнаруживать риски и избегать вреда в случае ошибки или сбоя системы.
- 5. Подотчетность – организации и люди, разрабатывающие, использующие и / или работающие с системами ИИ, должны нести ответственность за их надлежащее функционирование в соответствии с вышеуказанными принципами.