Sharif Digital Repository / Sharif University of Technology
    • [Zoom In]
    • [Zoom Out]
  • Page 
     of  0
  • [Previous Page]
  • [Next Page]
  • [Fullscreen view]
  • [Close]
 

Mathematical Foundations of Deep Learning: a Theoretical Framework for Generalization  

, M.Sc. Thesis Sharif University of Technology Babaie, Anahita (Author) ; Alishahi, Kasra (Supervisor) ; Hadji Mirsadeghi, Mir Omid (Co-Supervisor)
Abstract
Deep Neural Networks, are predictive models in Machine Learning, that during the last decade they've had a great success. However being in an over-parametrized and highly non-convex regime, the analytical examinations of these models is quite a challenging task to do. The empirical developments of Neural Networks, and their distinguishing performance in prediction problems, has motivated researchers, to formalize a theoretical foundations for these models and provide us with a framework, in which one can explain and justify their behavior and properties. this framework is of great importance because it would help us to come to a better understanding of how these models work and also enables... 

Cataloging brief

Mathematical Foundations of Deep Learning: a Theoretical Framework for Generalization  

, M.Sc. Thesis Sharif University of Technology Babaie, Anahita (Author) ; Alishahi, Kasra (Supervisor) ; Hadji Mirsadeghi, Mir Omid (Co-Supervisor)
Abstract
Deep Neural Networks, are predictive models in Machine Learning, that during the last decade they've had a great success. However being in an over-parametrized and highly non-convex regime, the analytical examinations of these models is quite a challenging task to do. The empirical developments of Neural Networks, and their distinguishing performance in prediction problems, has motivated researchers, to formalize a theoretical foundations for these models and provide us with a framework, in which one can explain and justify their behavior and properties. this framework is of great importance because it would help us to come to a better understanding of how these models work and also enables... 

Find in content

sort by

Bookmark

  • پیشگفتار (12)
    • تئوری یادگیری ژرف (12)
    • قضیه جهانی شبکه‌های عصبی (15)
    • مروری اجمالی بر تحقیقات انجام شده (16)
    • چشم‌انداز پایان‌نامه (22)
  • پیش‌نیازها (24)
    • تعریف و تاریخچه‌ای کوتاه از شبکه‌های عصبی (24)
    • چارچوب یادگیری آماری (27)
    • یادگیری؛ بهینه‌سازی و منظم‌سازی (32)
      • الگوریتم‌های بهینه‌سازی در شبکه‌های عصبی (34)
      • منظم‌سازی در شبکه‌های عصبی (37)
  • تعمیم‌پذیری (49)
    • اندازه‌های پیچیدگی و کران‌های تعمیم‌پذیری (50)
    • منظم‌سازی و کنترل گنجایش (62)
      • منظم‌سازی بر-واحد و مسیری (66)
      • منظم‌سازی جمعی (67)
  • ناوردا‌های شبکه‌های عصبی و هندسه‌ی بهینه سازی: تضمینی برای تعمیم‌پذیری (68)
    • ناورداهای شبکه (69)
    • منظم‌سازی مسیری (74)
    • SGD -مسیری (76)
  • هندسه ی رویه‌ی تابع هزینه و تعمیم‌پذیری (77)
    • مروری بر ماتریس‌های تصادفی (79)
    • توزیع مقادیر ویژه‌ی ماتریس هسین در نقاط بحرانی (82)
  • جمع‌بندی (89)
  • ضمیمه‌ها (91)
    • اثبات قضایا و لم‌های فصل ۳ (91)
      • اثبات قضیه ۳.۱ (91)
      • اثبات قضیه ۳.۲ (94)
      • قضیه و اثبات پایداری الگوریتم SGD (97)
      • اثبات مثال ۳.۳ (102)
      • اثبات قضیه ۳.۴ (104)
      • اثبات قضیه ۳.۶ (105)
      • اثبات قضیه ۳.۸ (108)
    • اثبات قضایا و لم‌های فصل ۴ (110)
      • اثبات قضیه ۴.۱ (110)
      • اثبات قضیه ۴.۲ (111)
      • اثبات قضیه۴.۴ (112)
Loading...