Стать автором
Обратная связь

Будущее ИИ зависит от стандартов, в которых приоритет отдается людям

IEC. ISO и ITU  официально одобрили социально-технический подход к стандартизации с целью продвижения ответственного и инклюзивного искусственного интеллекта (ИИ). Лидеры трех организаций по разработке стандартов взяли на себя это обязательство на недавнем Международном саммите по стандартам искусственного интеллекта.

Совместное заявление, опубликованное на мероприятии в Сеуле, подтвердило их общую приверженность продвижению безопасных, инклюзивных и эффективных международных стандартов в области ИИ, а также преодолению разрыва в сфере ИИ. Согласно совместному пресс-релизу, «в заявлении изложено общее видение и обязательства трёх организаций в отношении того, как международные стандарты будут способствовать разработке и внедрению надёжных систем ИИ, которые приносят пользу обществу, стимулируют инновации и защищают основные права.

В Сеуле представители трёх организаций по стандартизации постарались подчеркнуть, что формальное принятие социально-технического подхода не умаляет их текущего вклада, а, напротив, открывает путь к более глубокой и систематической интеграции человеческого фактора. Хотя действующие стандарты способствуют достижению целей высокого уровня, таких как Цели устойчивого развития ООН, зачастую это является неявным результатом технической работы.

В конце концов, стандарты, призванные обеспечить безопасность и надёжность технологий, уже в некоторой степени решают проблемы общества. Эти темы также были в центре внимания вебинара Академии МЭК, который состоялся в прошлом месяце с участием выдающихся экспертов из ИСО, МЭК и Global Network Initiative — неправительственной организации, занимающейся борьбой с цензурой и защитой прав людей в интернете.

Синди Пароккил, руководитель отдела политики в области ИИ в ISO, сформулировала основную проблему. «Люди часто сосредотачиваются на технических аспектах: алгоритмах, данных и моделях, — сказала она. — Но на самом деле мы знаем, что системы ИИ носят социально-технический характер».

Она проиллюстрировала свою мысль реальной историей из университетской больницы, где искусственный интеллект использовался для прогнозирования сепсиса у пациентов. Несмотря на техническую безупречность, эффективность инструмента полностью зависела от того, доверяли ли медсестры и врачи его оповещениям и соответствующим образом ли адаптировали свои рабочие процессы. «Технические инновации приносят пользу только тогда, когда человеческая система адаптируется и развивается вместе с ними», — сказала Пароккил.

Затем разговор перешёл к сложному вопросу о доверии. Ян Опперманн, профессор в области промышленности и вице-президент Международного электротехнического комитета, подчеркнул, что наши ожидания фундаментально не соответствуют действительности.

«Мы допускаем наличие ошибок и погрешностей [у людей]», — сказал Опперманн. «Разница между нашими ожиданиями от работы алгоритма и ожиданиями от работы человека в аналогичных обстоятельствах — это то, с чем мы ещё не до конца разобрались».

Он предупредил, что без справедливой основы для такого сравнения мы рискуем внедрить технически совершенные, но социально неэффективные системы.

Участники дискуссии также призвали бизнес-сообщество переосмыслить свой подход к оценке ценности ИИ. 


Источник: РИА "Стандарты и качество"

05.12.2025
448
Поделиться: