Loading...
- Type of Document: M.Sc. Thesis
- Language: Farsi
- Document No: 54574 (19)
- University: Sharif University of Technology
- Department: Computer Engineering
- Advisor(s): Rabiee, Hamid Reza; Rohban, Mohammad Hossein
- Abstract:
- Recent success of Deep Learning models, resulted in their evergrowing application in many fields. However these models usually require huge datasets, which can sometimes be hard to collect. One of the challenges related to medical data, is the Batch Effect; Medical data is usually gathered through multiple experiments. Each experiment might have a slightly different conditions than the other, resulting a shift in the data related to that batch. Batch effects can have more severe impact during testing time, as the shift in the data distribution could be bigger. Many methods have been proposed to reduce or remove the effect of external conditions on data distribution.Deep Learning models have been proven to be vulnerable to adversarial attacks; A small perturbation in the input, usually unobservable to human eye, could easily fool the model. Adversarially robust training is the framework focusing on resisting such attacks.We propose a framework, using adversarial attacks to model batch effects. Furthermore, using this framework, we introduce a data augmentation method which can help models to train better in presence of batch effects. We then prove effectiveness of proposed method both quantitatively and qualitatively using two datasets of medical signals.
- Keywords:
- Adversarial Robust Training ; Batch Effect Correction ; Medical Signals ; Deep Learning
-
محتواي کتاب
- view
- مقدمه
- مفاهیم اولیه
- نمونههای تخاصمی
- یادگیری تخاصمی
- اثر دستهای
- طرح مساله
- مفاهیم اولیه
- بررسی کارهای پیشین
- انواع حملههای تخاصمی
- L-BFGS
- روش علامت گرادیان سریع
- حملهی یک گامی هدف دار
- روش تکرار شونده ساده
- نزول گرادیان افکندهشده
- نقشه برجستگی مبتنی بر ماتریس ژاکوبین
- حملههای جعبه سیاه
- الگوریتمهای یادگیری تخاصمی
- یادگیری تخاصمی
- TRADES
- روشهای اثبات پذیر مقاوم
- تاثیر یادگیری مقاوم
- روشهای حذف اثر دستهای
- یادگیری مقابلهای عمیق در معیارهای زیستی
- شبکههای باقیماندهای یکسان کننده توزیع
- حذف اثر دستهای به کمک رمزگذاری مستقل از دسته
- انواع حملههای تخاصمی
- روش پیشنهادی
- ارزیابی و نتایج
- مجموعه دادهها
- معیارهای ارزیابی
- ارزیابی درهم
- ارزیابی کنار گذاشتن تکی
- جزئیات پیادهسازی
- ارزیابی دقت
- ارزیابی کیفی
- تاثیر بودجه انحراف بر بیش برازش مدلها
- نتیجهگیری
- کارهای پیش رو
- استفاده از حملههای متفاوت
- یکسان سازی دستهها با استفاده از حملات هدفدار
- کارهای پیش رو
