Loading...

Secure Learning in Adversarial Environment

Sadeghzadeh, Amir Mahdi | 2022

79 Viewed
  1. Type of Document: Ph.D. Dissertation
  2. Language: Farsi
  3. Document No: 56663 (19)
  4. University: Sharif University of Technology
  5. Department: Computer Engineering
  6. Advisor(s): Jalili, Rasool
  7. Abstract:
  8. Although Machine Learning (ML) and especially Deep Learning (DL) has shown significant success in solving complex problems, recent studies have shown that ML algorithms are vulnerable to adversarial attacks. So far, ML algorithms have been designed to run in benign environments. However, the increasing use of ML algorithms in security-sensitive applications motivated adversaries to focus on their vulnerabilities. In the adversarial environment, an adversary can interfere in the training and inference processes of ML algorithms. Adversarial examples are one of the most critical vulnerabilities of ML models at the inference time. Adversarial examples are maliciously crafted inputs that cause classifiers to make incorrect predictions. This thesis evaluates the robustness of network traffic classifiers against adversarial examples and presents a new defense against model extraction attacks. Network traffic classification is used in various applications such as network traffic management, policy enforcement, and intrusion detection systems. We evaluate the robustness of DL-based network traffic classifiers against Adversarial Network Traffic (ANT). ANT injects universal adversarial perturbation into network traffic in order to cause DL-based network traffic classifiers to predict incorrectly. The results demonstrate that ANT highly decreases the accuracy of DL-based network traffic classifiers. In the website fingerprinting attack, the adversary uses an ML-based network traffic classifier to predict the website that has been visited by the victim user. We propose a new defense against website fingerprinting attacks using adversarial example generating approaches called Adversarial Website Adaptation (AWA). AWA generates adversarial examples that are more robust against adversarial training, and It decreases the accuracy of the adversary's classifier to 19\% with almost 22\% bandwidth overhead. Model Extraction attacks exploit the target model's prediction interface to create a surrogate model in order to steal or reconnoiter the functionality of the target model in the black-box setting odel extraction attacks can be used to conduct other attacks, such as adversarial example attacks in the black-box setting. We propose Hardness-Oriented Detection Approach (HODA) to detect the sample sequences of model extraction attacks. We define the hardness degree of a sample using the concept of learning difficulty. The results demonstrate that HODA outperforms all previous model extraction detection methods and is more scalable than its competitors
  9. Keywords:
  10. Adversarial Example ; Machine Learning Security ; Classify Network Traffic ; Secure Learning ; Black Box Adversarial Environment

 Digital Object List

 Bookmark

  • 1 سرآغاز
    • 1.1 شرح مسئله
    • 1.2 انگیزه و اهداف
    • 1.3 نوآوری‌ها و دست آوردها
    • 1.4 ساختار فصل‌ها
  • 2 پیش‌زمینه و مفاهیم پایه
    • 2.1 یادگیری ماشینی
      • 2.1.1 شبکه‌های عصبی ژرف
    • 2.2 یادگیری اَمن
      • 2.2.1 محرمانگی و حریم‌خصوصی
      • 2.2.2 یکپارچگی و دسترس‌پذیری
      • 2.2.3 مدل تهدید
    • 2.3 نمونه‌های خصمانه
      • 2.3.1 آشفتگی خصمانه فراگیر
    • 2.4 حملات استخراج مدل
    • 2.5 دسته‌بندی ترافیک شبکه
      • 2.5.1 ترافیک شبکه
      • 2.5.2 دسته‌بندی ترافیک شبکه
      • 2.5.3 حمله انگشت‌نگاری وب‌سایت
    • 2.6 جمع‌بندی
  • 3 کارهای پیشین
    • 3.1 نمونه‌های خصمانه
      • 3.1.1 حملات نمونه خصمانه
      • 3.1.2 دفاع در برابر حملات نمونه خصمانه
    • 3.2 استخراج مدل
      • 3.2.1 حملات استخراج مدل
      • 3.2.2 دفاع در برابر حملات استخراج مدل
    • 3.3 دسته‌بندی ترافیک شبکه
      • 3.3.1 دسته‌بندی بسته
      • 3.3.2 دسته‌بندی محتوا جریان
      • 3.3.3 دسته‌بندی سری-زمانی جریان و حملات انگشت‌نگاری وب‌سایت
    • 3.4 مقابله با دسته‌بندی ترافیک شبکه
    • 3.5 جمع‌بندی
  • 4 ترافیک شبکه خصمانه
    • 4.1 تولید ترافیک شبکه خصمانه
      • 4.1.1 حمله لایه خصمانه
      • 4.1.2 حمله ‌‌پایه‌بار خصمانه
      • 4.1.3 حمله رگبار خصمانه
    • 4.2 ارزیابی
      • 4.2.1 دادگان و تنظیمات
      • 4.2.2 ارزیابی مقاومت دسته‌بندهای بسته
      • 4.2.3 ارزیابی مقاومت دسته‌بندهای محتوا جریان
      • 4.2.4 ارزیابی مقاومت دسته‌بندهای سری-زمانی جریان
      • 4.2.5 انتقال‌پذیری ترافیک شبکه خصمانه
      • 4.2.6 تحلیل نتایج
      • 4.2.7 ترافیک شبکه خصمانه در دنیای واقعی
    • 4.3 جمع‌بندی
  • 5 آوا: تطبیق وب‌سایت خصمانه
    • 5.1 مدل تهدید حملات انگشت‌نگاری وب‌سایت
    • 5.2 روش پیشنهادی آوا
      • 5.2.1 چارچوب آوا
      • 5.2.2 مبدل‌ها
      • 5.2.3 توابع زیان
      • 5.2.4 عناصر تصادفی راز
      • 5.2.5 الگوریتم آوا
    • 5.3 ارزیابی
      • 5.3.1 دادگان و تنظیمات
      • 5.3.2 آزمایش‌ها
      • 5.3.3 فاصله درون دسته‌ای
      • 5.3.4 مصورسازی رد متوسط
      • 5.3.5 تحلیل نتایج
      • 5.3.6 آوا در دنیای واقعی
    • 5.4 جمع‌بندی
  • 6 هُدا: رویکرد تشخیص سختی‌-گرا
    • 6.1 سختی نمونه‌ها
    • 6.2 تعریف درجه سختی نمونه‌ها
    • 6.3 حملات استخراج مدل
      • 6.3.1 تحلیل سختی نمونه‌های حملات استخراج مدل
    • 6.4 روش پیشنهادی هُدا
    • 6.5 ارزیابی
      • 6.5.1 کاربران بی‌خطر با توزیع جابه‌جا شده
      • 6.5.2 تحلیل هزینه محاسباتی
      • 6.5.3 انتقال یادگیری
      • 6.5.4 مهاجم وفق‌پذیر
    • 6.6 جمع‌بندی
  • 7 نتیجه‌گیری و سوی کارهای آتی
    • 7.1 نتیجه‌گیری و جمع‌بندی
    • 7.2 سوی کارهای‌ آتی
  • کتاب‌نامه
  • واژه‌نامه‌ی فارسی به انگلیسی
  • واژه‌نامه‌ی انگلیسی به فارسی
...see more