Канадский центр кибербезопасности недавно вместе с CISA и британским Национальным центром кибербезопасности, а также 20 международными организациями-партнерами объявил о руководящих принципах безопасной разработки систем ИИ.
Инновации в области ИИ способны принести много пользы обществу, говорится в руководящем документе. "Однако, чтобы возможности ИИ были полностью реализованы, его разработка, внедрение и эксплуатация должны осуществляться безопасным и ответственным образом".
"Правительства и промышленные круги единодушны в том, что нам необходимо объединить усилия, чтобы обеспечить разработку этих возможностей с учетом требований безопасности", - заявил Джен Истерли, директор Агентства кибербезопасности и защиты инфраструктуры США.
Сами Хоури, глава Канадского киберцентра, утверждает, что если при проектировании, разработке или развертывании системы искусственного интеллекта не учитывать вопросы безопасности, то многое может пойти не так.
В том же интервью Хоури назвал первоначальную международную приверженность новым рекомендациям чрезвычайно позитивной.
В июле Канадский киберцентр опубликовал рекомендации, в которых отмечались уязвимости систем искусственного интеллекта. Например, кто-то со злым умыслом может внедрить деструктивный код в набор данных, используемый для обучения системы ИИ, что исказит точность и качество результатов.
По словам Хоури, наихудшим сценарием было бы заражение злоумышленником важнейшей системы ИИ, на которую мы привыкли полагаться, что привело бы к ее сбою.
Центр также предупредил, что киберпреступники могут использовать эти системы для более частых, автоматических и изощренных так называемых фишинговых атак. "Высокореалистичные фишинговые письма или мошеннические сообщения могут привести к краже личных данных, финансовому мошенничеству или другим формам киберпреступлений".
Читайте нас в ТелеграмKnopka.ca, 11.12.2023 15:31, Новости Канады
Уважаемые пользователи Knopka.ca! Сайт выбрал новую систему комментариев на базе телеграмма. Теперь комментировать и видеть все комментарии можно в телеграмм канале @Knopka_ca Подписывайтесь на наш канал.