Отправляя данные, я подтверждаю, что ознакомилась/ознакомился с Политикой в отношении обработки персональных данных, принимаю её условия и предоставляю ООО «РИА «Стандарты и качество» Согласие на обработку персональных данных.
Отправляя данные, я подтверждаю, что ознакомилась/ознакомился с Политикой в отношении обработки персональных данных, принимаю её условия и предоставляю ООО «РИА «Стандарты и качество» Согласие на обработку персональных данных.
Для приобретения подписки для абонементного доступа к статьям, вам необходимо зарегистрироваться
После регистрации вы получите доступ к личному кабинету
Зарегистрироваться Войти
IEC. ISO и ITU официально одобрили социально-технический подход к стандартизации с целью продвижения ответственного и инклюзивного искусственного интеллекта (ИИ). Лидеры трех организаций по разработке стандартов взяли на себя это обязательство на недавнем Международном саммите по стандартам искусственного интеллекта.
Совместное заявление, опубликованное на мероприятии в Сеуле, подтвердило их общую приверженность продвижению безопасных, инклюзивных и эффективных международных стандартов в области ИИ, а также преодолению разрыва в сфере ИИ. Согласно совместному пресс-релизу, «в заявлении изложено общее видение и обязательства трёх организаций в отношении того, как международные стандарты будут способствовать разработке и внедрению надёжных систем ИИ, которые приносят пользу обществу, стимулируют инновации и защищают основные права.
В Сеуле представители трёх организаций по стандартизации постарались подчеркнуть, что формальное принятие социально-технического подхода не умаляет их текущего вклада, а, напротив, открывает путь к более глубокой и систематической интеграции человеческого фактора. Хотя действующие стандарты способствуют достижению целей высокого уровня, таких как Цели устойчивого развития ООН, зачастую это является неявным результатом технической работы.
В конце концов, стандарты, призванные обеспечить безопасность и надёжность технологий, уже в некоторой степени решают проблемы общества. Эти темы также были в центре внимания вебинара Академии МЭК, который состоялся в прошлом месяце с участием выдающихся экспертов из ИСО, МЭК и Global Network Initiative — неправительственной организации, занимающейся борьбой с цензурой и защитой прав людей в интернете.
Синди Пароккил, руководитель отдела политики в области ИИ в ISO, сформулировала основную проблему. «Люди часто сосредотачиваются на технических аспектах: алгоритмах, данных и моделях, — сказала она. — Но на самом деле мы знаем, что системы ИИ носят социально-технический характер».
Она проиллюстрировала свою мысль реальной историей из университетской больницы, где искусственный интеллект использовался для прогнозирования сепсиса у пациентов. Несмотря на техническую безупречность, эффективность инструмента полностью зависела от того, доверяли ли медсестры и врачи его оповещениям и соответствующим образом ли адаптировали свои рабочие процессы. «Технические инновации приносят пользу только тогда, когда человеческая система адаптируется и развивается вместе с ними», — сказала Пароккил.
Затем разговор перешёл к сложному вопросу о доверии. Ян Опперманн, профессор в области промышленности и вице-президент Международного электротехнического комитета, подчеркнул, что наши ожидания фундаментально не соответствуют действительности.
«Мы допускаем наличие ошибок и погрешностей [у людей]», — сказал Опперманн. «Разница между нашими ожиданиями от работы алгоритма и ожиданиями от работы человека в аналогичных обстоятельствах — это то, с чем мы ещё не до конца разобрались».
Он предупредил, что без справедливой основы для такого сравнения мы рискуем внедрить технически совершенные, но социально неэффективные системы.
Участники дискуссии также призвали бизнес-сообщество переосмыслить свой подход к оценке ценности ИИ.