Sharif Digital Repository / Sharif University of Technology
    • [Zoom In]
    • [Zoom Out]
  • Page 
     of  0
  • [Previous Page]
  • [Next Page]
  • [Fullscreen view]
  • [Close]
 
تخمین بر هم کنش بین سایت ها توسط شبکه ی عصبی پیچشی و اعمال روش بازبهنجارش روی ماتریس چگالی شبکه
پورمحمد، حمید Pourmohammad, Hamid

Cataloging brief

تخمین بر هم کنش بین سایت ها توسط شبکه ی عصبی پیچشی و اعمال روش بازبهنجارش روی ماتریس چگالی شبکه
پدیدآور اصلی :   پورمحمد، حمید Pourmohammad, Hamid
ناشر :   صنعتی شریف
سال انتشار  :   1400
موضوع ها :   شبکه های عمیق Deep Networks مدل آیزینگ Ising model دسته بندی Classification قطع سازی...
شماره راهنما :   ‭04-54878

Find in content

sort by

Bookmark

  • تقدیر و تشکر (4)
  • چکیده‌ی فارسی (5)
  • فصل ۱: مقدمه (10)
  • ۱-1 مقدمه (10)
  • ۱-۲ گروه بازبهنجارش (10)
  • ۱-۳ بلوک‌بندی سیستم (11)
  • ۱-۴ گروه بازبهنجارش ماتریس چگالی (13)
  • ۱-۵ الگوریتم روش گروه بازبهنجارش ماتریس چگالی (15)
  • ۱-۶ یادگیری ماشین (16)
  • ۱-۷ پرسپترون (16)
  • ۱-۸ ایجاد یک شبکه از نورون‌های مصنوعی (18)
  • ۱-۹ مفاهیم پایه‌ای در شبکه‌های پیچشی (20)
  • ۱-۱۰ هدف‌ ما چیست؟ (23)
  • فصل 2: گروه بازبهنجارش ماتریس چگالی در مدل آیزینگ (26)
  • ۲-۱ مقدمه (26)
  • ۲-۲ تبدیل مقیاس و ناورداییِ مقیاس (26)
  • ۲-۳ جهان‌شمولی (27)
  • ۲-۴ اعمال فرایند گروه بازبهنجارش روی مدل آیزینگ (29)
  • ۲-۵ بلوک‌بندی یک سیستم با تعداد اجزای زیاد (31)
  • ۲-۶ برهمکنش‌های درونی و بیرونی بلوک (32)
  • ۲-۷ محاسبه‌ی ماتریس چگالی (34)
  • ۲-۸ تکرار مراحل محاسباتی در گروه بازبهنجارش ماتریس چگالی (39)
  • فصل ۳: مفهوم یادگیری در شبکه‌های عصبی مصنوعی (42)
  • ۳-۱ مقدمه (42)
  • ۳-۲ شبکه‌های عصبی در موجودات زنده (42)
  • ۳-۳ آموزش بانظارت و بدون نظارت (44)
  • ۳-۴ ورودی‌های شبکه (خصیصه‌ها) و چارچوب داده (45)
  • ۳-۵ تابع خطا (47)
  • ۳-6 چارچوب داده در مسئله‌های دسته‌بندی (48)
  • ۳-7 لایه‌های هموار کننده و هموارسازی داده‌ها (52)
  • ۳-8 یادگیری با روش گرادیان کاهشی (52)
  • ۳-9 بهینه‌سازی غیرخطی (54)
  • ۳-10 ویژگی‌های توابع فعال‌سازی (55)
  • ۳-11 انواع توابع فعال‌سازی (56)
  • ۳-12 تغییر مقیاس داده‌ها (58)
  • ۳-13 پرسپترون‌های چندلایه (59)
  • ۳-14 یادگیری انتقالی در شبکه‌های عصبی (60)
  • فصل ۴: شبکه‌های عصبی پیچشی (61)
  • ۴-۱ مقدمه (61)
  • ۴-۲ کشف ویژگی‌های محلی متفاوت (61)
  • ۴-۳ ورودی‌های سه بُعدی یا بالاتر (63)
  • ۴-۴ لایه‌های جمع‌کننده (64)
  • ۴-۵ اعمال لایه‌های کاملاً متصل (65)
  • ۴-۶ یک شبکه‌ی عصبی پیچشی کامل (66)
  • ۴-۷ تفاوت شبکه‌های پیچشی با پرسپترون‌های چندلایه (68)
  • فصل ۵: ارتباط فرایند پیچش با گروه بازبهنجارش ماتریس چگالی (69)
  • ۵-۱ مقدمه (69)
  • ۵-۲ بلوک‌بندی (69)
  • ۵-۳ وظیفه و اهداف (71)
  • ۵-۴ توانمندی در محاسبه (71)
  • ۵-۵ همگن یا ناهمگن بودنِ سایت‌ها (73)
  • ۵-۶ بررسی طیف انرژی و انرژی‌گونه (74)
  • ۵-۷ رشد فضای هیلبرت (75)
  • ۵-۸ هامیلتونی (78)
  • ۵-۹ کوتاه‌سازی فضای هیلبرت (79)
  • فصل ۶: درک فرایند پیچش توسط فیزیک آماری (80)
  • ۶-۱ مقدمه (80)
  • ۶-۲ نگرش شبکه‌های پیچشی به آرایش‌ها (80)
  • ۶-۳ کوتاه‌سازی نمایش ویژه‌بردارها (81)
  • ۶-۴ ارتباط ویژه‌بردارها با خروجی‌ها (82)
  • ۶-۵ یادگیری در شبکه‌های پیچشی (83)
  • ۶-۶ ارتباط ویژه‌بردار‌های زیرسیستم‌ها با خروجی (83)
  • ۶-۷ دسته‌بندی توسط انسان و رایانه (84)
  • ۶-۸ افزایش تعداد قاب‌ها (87)
  • ۶-۹ تاثیر ویژه‌حالت‌های یک سیستم (88)
  • ۶-۱۰ ویژه‌حالت‌های زیرسیستم در یک هامیلتونی ناشناس (89)
  • ۶-۱۱ دسته‌بندی آرایش‌ها (90)
  • ۶-۱۲ نتیجه (95)
  • منابع و مأخذ (99)
  • پیوست‌ها (101)
  • پیوست ۱: کُد پایتون رابطه‌ی انرژی در شبیه‌سازی (101)
  • چکیده‌ی لاتین به همراه کلید‌واژه‌ی لاتین (102)
Loading...