Стать автором
Обратная связь

Повышение прозрачности систем искусственного интеллекта

Использование ИИ набирает обороты по всему миру, поскольку потребители и организации извлекают выгоду из его способности решать сложные проблемы, стимулировать инновации и выполнять задачи, которые раньше были под силу только людям. Однако уровень доверия по-прежнему невысок.

Глобальное исследование, проведённое Мельбурнским университетом и компанией KPMG в начале этого года, показало, что, хотя 66 % людей намеренно используют ИИ, менее половины из них готовы доверять ему, и это доверие ещё ниже по сравнению с предыдущим исследованием, проведённым в 2022 году.

Согласно другому исследованию, проведённому Организацией Объединённых Наций (ООН), в высокоразвитых странах уровень доверия к использованию ИИ правительством ещё ниже (46 %), а уверенность в том, что ИИ может приносить пользу обществу, ещё ниже (46 %), чем в странах с низким и средним уровнем развития (60 % и 65 % соответственно), что уже недостаточно высоко.

Укрепление доверия необходимо для того, чтобы повысить уровень принятия и внедрения ИИ, что, в свою очередь, поможет раскрыть его потенциал и сделать его полезной силой для общества. Ключевой способ укрепления доверия — повышение прозрачности систем ИИ, например в отношении структуры системы, системы управления, обработки данных, воздействия на окружающую среду и многого другого.

Новый стандарт технического комитета IEC и ISO по искусственному интеллекту призван помочь организациям в этом, позволяя им выявлять и удовлетворять свои потребности в обеспечении прозрачности систем искусственного интеллекта. ISO/IEC 12791 помогает повысить уровень доверия между различными заинтересованными сторонами в сфере ИИ, от поставщиков до клиентов, за счет предоставления соответствующей информации с использованием единой терминологии.

Стандарт предлагает чёткую структуру для документирования всей информации о системах ИИ, которая важна для заинтересованных сторон, включая риски и ограничения, начиная с уровня данных и заканчивая механикой самой модели. Это, наряду с общепринятой терминологией, позволяет лучше понять системы и связанные с ними риски, а также полезно для соблюдения нормативных требований, управления кибербезопасностью и укрепления доверия.

Вопрос о том, как создавать надёжные и устойчивые системы искусственного интеллекта, был ключевым на повестке первого Международного саммита по стандартам ИИ, состоявшегося на этой неделе в Сеуле (Корея).

Важным итогом саммита стала публикация IEC, ISO и ITU Сеульского заявления об искусственном интеллекте, которое подтверждает их общую приверженность продвижению безопасных, инклюзивных и эффективных международных стандартов в области искусственного интеллекта и преодолению разрыва в области искусственного интеллекта.


Источник: РИА "Стандарты и качество"

05.12.2025
448
Поделиться: