Отправляя данные, я подтверждаю, что ознакомилась/ознакомился с Политикой в отношении обработки персональных данных, принимаю её условия и предоставляю ООО «РИА «Стандарты и качество» Согласие на обработку персональных данных.
Отправляя данные, я подтверждаю, что ознакомилась/ознакомился с Политикой в отношении обработки персональных данных, принимаю её условия и предоставляю ООО «РИА «Стандарты и качество» Согласие на обработку персональных данных.
Для приобретения подписки для абонементного доступа к статьям, вам необходимо зарегистрироваться
После регистрации вы получите доступ к личному кабинету
Зарегистрироваться Войти
Использование ИИ набирает обороты по всему миру, поскольку потребители и организации извлекают выгоду из его способности решать сложные проблемы, стимулировать инновации и выполнять задачи, которые раньше были под силу только людям. Однако уровень доверия по-прежнему невысок.
Глобальное исследование, проведённое Мельбурнским университетом и компанией KPMG в начале этого года, показало, что, хотя 66 % людей намеренно используют ИИ, менее половины из них готовы доверять ему, и это доверие ещё ниже по сравнению с предыдущим исследованием, проведённым в 2022 году.
Согласно другому исследованию, проведённому Организацией Объединённых Наций (ООН), в высокоразвитых странах уровень доверия к использованию ИИ правительством ещё ниже (46 %), а уверенность в том, что ИИ может приносить пользу обществу, ещё ниже (46 %), чем в странах с низким и средним уровнем развития (60 % и 65 % соответственно), что уже недостаточно высоко.
Укрепление доверия необходимо для того, чтобы повысить уровень принятия и внедрения ИИ, что, в свою очередь, поможет раскрыть его потенциал и сделать его полезной силой для общества. Ключевой способ укрепления доверия — повышение прозрачности систем ИИ, например в отношении структуры системы, системы управления, обработки данных, воздействия на окружающую среду и многого другого.
Новый стандарт технического комитета IEC и ISO по искусственному интеллекту призван помочь организациям в этом, позволяя им выявлять и удовлетворять свои потребности в обеспечении прозрачности систем искусственного интеллекта. ISO/IEC 12791 помогает повысить уровень доверия между различными заинтересованными сторонами в сфере ИИ, от поставщиков до клиентов, за счет предоставления соответствующей информации с использованием единой терминологии.
Стандарт предлагает чёткую структуру для документирования всей информации о системах ИИ, которая важна для заинтересованных сторон, включая риски и ограничения, начиная с уровня данных и заканчивая механикой самой модели. Это, наряду с общепринятой терминологией, позволяет лучше понять системы и связанные с ними риски, а также полезно для соблюдения нормативных требований, управления кибербезопасностью и укрепления доверия.
Вопрос о том, как создавать надёжные и устойчивые системы искусственного интеллекта, был ключевым на повестке первого Международного саммита по стандартам ИИ, состоявшегося на этой неделе в Сеуле (Корея).
Важным итогом саммита стала публикация IEC, ISO и ITU Сеульского заявления об искусственном интеллекте, которое подтверждает их общую приверженность продвижению безопасных, инклюзивных и эффективных международных стандартов в области искусственного интеллекта и преодолению разрыва в области искусственного интеллекта.