Loading...
Robustification of Deep Learning Structures Based Ongenerative Models
Haji Mohammadi, Reza | 2025
0
Viewed
- Type of Document: M.Sc. Thesis
- Language: Farsi
- Document No: 57899 (05)
- University: Sharif University of Technology
- Department: Electrical Engineering
- Advisor(s): Kazemi, Reza; Amini, Sajjad
- Abstract:
- In recent years, deep learning has experienced rapid and remarkable advancements, demonstrating exceptional performance in various applications such as computer vision, natural language processing, and autonomous vehicles. These models are continually evolving and expanding, yet they harbor inherent vulnerabilities that prevent complete trust in their reliability. One of the most critical issues is their susceptibility to adversarial attacks, where a clean image is subtly manipulated to create an adversarial example. Adversarial examples, generated by adding imperceptible perturbations to input data, can easily mislead deep learning models into making highly confident yet incorrect predictions. This poses significant risks for deploying these models in real-world scenarios, especially in security-sensitive domains. Over time, attack methods have become more sophisticated, prompting the development of various defense mechanisms to strengthen model robustness against these threats. A subset of defensive strategies leverages generative models to enhance robustness, as these models can recover clean images from adversarial ones. Among these generative models, energy-based models (EBMs), despite the emergence of newer alternatives, remain relevant due to their unique advantages. EBMs can be used to purify adversarial examples, thereby bolstering the resilience of deep learning models. Our proposed method utilizes adversarial examples during model training by explicitly treating them as points to minimize probability. Additionally, we train an energy-based model using different approach from prior works on image purification. These improvements, combined with other adjustments, resulted in final accuracies of 86.89%, 75.21%, and 42.41% on the MNIST, FashionMNIST, and CIFAR10 datasets, respectively, where accuracy had previously dropped to zero due to attacks. These accuracies reflect improvements of 10.52%, 20.48%, and 7.89% after adversarial training compared to models without such training on the respective datasets. This model training approach using adversarial data was tested on one of the advanced purification methods based on an energy-based model, resulting in a 1.1% improvement in final accuracy under identical conditions on the CIFAR-10 dataset. Finally, we designed an attack targeting the robust structure and analyzed the unique characteristics of adversarial examples for these fortified models. Notably, our proposed method was fully capable of countering this attack, further demonstrating its effectiveness
- Keywords:
- Reliability ; Adversarial Attacks ; Deep Learning ; Generative Models ; Image Purification ; Energy Based Models
-
محتواي کتاب
- view
- مقدمه
- مقدمه
- تعریف مسئله
- مقدمه
- اهمیت موضوع
- ادبیات موضوع
- مقدمه
- دستاوردهای پژوهش
- مقدمه
- ساختار پایاننامه
- یادگیری ماشین قابل اعتماد
- یادگیری ماشین قابل اعتماد
- حریم خصوصی
- یادگیری ماشین قابل اعتماد
- حریم خصوصی
- تفاوت حریم خصوصی و محرمانگی
- ارتقا حریم خصوصی
- حریم خصوصی
- یادگیری ماشین قابل اعتماد
- حریم خصوصی
- حملات حوزهی حریم خصوصی
- حریم خصوصی
- یادگیری ماشین قابل اعتماد
- تفسیرپذیری
- یادگیری ماشین قابل اعتماد
- تفسیرپذیری
- شفافیت
- تفسیرپذیری
- یادگیری ماشین قابل اعتماد
- تفسیرپذیری
- پسنگری
- تفسیرپذیری
- یادگیری ماشین قابل اعتماد
- عادلانه بودن
- یادگیری ماشین قابل اعتماد
- مسموم سازی داده
- یادگیری ماشین قابل اعتماد
- مسموم سازی داده
- انواع حملات مسمومسازی
- مسموم سازی داده
- یادگیری ماشین قابل اعتماد
- مسموم سازی داده
- انواع روشهای دفاعی در برابر حملات مسمومسازی
- حملات فریبکارانه
- مسموم سازی داده
- یادگیری ماشین قابل اعتماد
- حملات فریبکارانه
- انواع حملات فریبکارانه از نظر هدف حمله
- انواع حملات فریبکارانه از نظر سطح دسترسی مهاجم
- انواع حملات فریبکارانه از نظر محدودیت روش
- حملات فریبکارانه
- یادگیری ماشین قابل اعتماد
- جمع بندی
- کارهای پیشین
- کارهای پیشین
- حملات خصمانه
- حملات خصمانه کلاسیک
- حملات خصمانه
- کارهای پیشین
- حملات خصمانه
- حملات SOTA
- حملات خصمانه
- کارهای پیشین
- حملات خصمانه
- حملات قدرتمند پس از Autoattack
- حملات خصمانه
- کارهای پیشین
- حملات خصمانه
- حمله به طبقهبندهای مستحکم
- حملات خصمانه
- کارهای پیشین
- مقابله با حملات خصمانه توسط روشهای گواهی شده
- کارهای پیشین
- مقابله با حملات خصمانه توسط روشهای تجربی
- کارهای پیشین
- مقابله با حملات خصمانه توسط روشهای تجربی
- تبدیل ورودی
- مقابله با حملات خصمانه توسط روشهای تجربی
- کارهای پیشین
- مقابله با حملات خصمانه توسط روشهای تجربی
- اصلاح ساختار
- مقابله با حملات خصمانه توسط روشهای تجربی
- کارهای پیشین
- مقابله با حملات خصمانه توسط روشهای تجربی
- اصلاح روند آموزشی
- مقابله با حملات خصمانه توسط روشهای تجربی
- کارهای پیشین
- مقابله با حملات خصمانه توسط روشهای تجربی
- استفاده از مدلهای کمکی
- مقابله با حملات خصمانه توسط روشهای تجربی
- کارهای پیشین
- جمع بندی
- روش پیشنهادی
- روش پیشنهادی
- مقدمهای بر مدلهای مبتنی بر انرژی
- روش پیشنهادی
- مقدمهای بر مدلهای مبتنی بر انرژی
- واگرایی تباینی
- مقدمهای بر مدلهای مبتنی بر انرژی
- روش پیشنهادی
- طراحی روش دفاعی برای مقابله با حملات خصمانه
- روش پیشنهادی
- طراحی روش دفاعی برای مقابله با حملات خصمانه
- استفاده از مدل پیش آموزش در روش دفاعی
- طراحی روش حمله برای مقابله با ساختار مستحکم پیشنهادی
- طراحی روش دفاعی برای مقابله با حملات خصمانه
- روش پیشنهادی
- جمع بندی
- پیاده سازی و آزمایشها
- ارزیابی روش دفاعی پیشنهادی
- پیاده سازی و آزمایشها
- ارزیابی روش دفاعی پیشنهادی
- آزمایشهای پایگاه داده MNIST
- ارزیابی روش دفاعی پیشنهادی
- پیاده سازی و آزمایشها
- ارزیابی روش دفاعی پیشنهادی
- آزمایشهای پایگاه داده FashionMNIST
- ارزیابی روش دفاعی پیشنهادی
- پیاده سازی و آزمایشها
- ارزیابی روش دفاعی پیشنهادی
- آزمایشهای پایگاه داده CIFAR10
- ارزیابی روش دفاعی پیشنهادی
- پیاده سازی و آزمایشها
- ارزیابی روش دفاعی پیشنهادی
- بهبود عملکرد مدل با استفاده از روش پیش آموزش
- ارزیابی روش دفاعی پیشنهادی
- پیاده سازی و آزمایشها
- ارزیابی روش دفاعی پیشنهادی
- نکاتی در خصوص دقت تصاویر سالم
- ارزیابی روش دفاعی پیشنهادی
- پیاده سازی و آزمایشها
- ارزیابی روش دفاعی پیشنهادی
- نکاتی در خصوص زمان اجرا
- مقایسه با یک روش دفاعی SOTA مبتنی بر انرژی
- ارزیابی روش دفاعی پیشنهادی
- پیاده سازی و آزمایشها
- طراحی روش حمله برای مقابله با ساختار مستحکم پیشنهادی
- پیاده سازی و آزمایشها
- جمع بندی
- نتیجهگیری
- نتیجهگیری
- کارهای آینده
- مراجع
- معماری شبکههای عصبی در آزمایشها