УГРОЗЫ БЕЗОПАСНОСТИ И АТАКИ В ИИ
Главная статья
Аннотация
Целью данной статьи является понимание нынешнего сценария атак ИИ и угроз безопасности и конфиденциальности ИИ. Риски, связанные с атаками на ИИ, медленно но верно становятся все более очевидными, что приводит к множеству финансовых и социальных потерь. Состязательные атаки, атаки на инверсию модели, атаки с отравлением, атаки с извлечением данных и атаки на вывод членства — вот некоторые категории, под которые в этой статье будут подпадать различные типы атак на модели искусственного интеллекта. Таким образом, эта статья послужит классификацией различных подобных атак на модели искусственного интеллекта.
Подробнее
Это произведение доступно по лицензии Creative Commons «Attribution-NonCommercial-ShareAlike» («Атрибуция — Некоммерческое использование — На тех же условиях») 4.0 Всемирная.
Неисключительные права на статью передаются журналу в полном соответствии с Лицензией Creative Commons By-NC-SA 4.0 (Международная)