دوره رایگان یادگیری عمیق و شبکه های عصبی
مشخصات دوره در یک نگاه
- مدرس: صابر کلاگر
- زمان دوره: ۶ ساعت
- تعداد جلسات: ۱۷ تا
- فرمت: فیلم از قبل ضبط شده
- زمان دسترسی: بلافاصله پس از ثبت نام
- نحوه دریافت: تماشای آنلاین در همین صفحه
پس از ثبت نام، مجدد به همین صفحه برگردید و کمی پایین تر، از قسمت «ویدیوهای دوره» می توانید ویدیوها را مشاهده کنید
در دوره رایگان یادگیری عمیق و شبکه عصبی چه می گذرد؟
یادگیری عمیق زیرمجموعهای از یادگیری ماشین و شاخهای از هوش مصنوعی است که به ماشینها اجازه میدهد تا با استفاده از دادههای حجیم و الگوریتمهای پیچیده، یاد بگیرند و وظایف پیچیده را انجام دهند.
شبکههای عصبی، ستون فقرات یادگیری عمیق هستند. این شبکهها از لایههای متعددی از نورونها تشکیل شدهاند که به هم متصل هستند و میتوانند الگوهای پیچیده را در دادهها شناسایی کنند.
با یادگیری عمیق، میتوانید به دنیای هیجانانگیز هوش مصنوعی قدم بگذارید و در حل چالشهای پیچیده نقش مهمی ایفا کنید.
با شرکت در دوره رایگان یادگیری عمیق و شبکه عصبی شما می توانید به صورت کاملاً اصولی طی 17 جلسه با پایه و اساس یادگیری عمیق و شبکه عصبی آشنا شوید. این جلسات به صورت مرحله به مرحله و ویدیویی در اختیار شما قرار گرفته تا بهترین نتایج را از آموزش ها دریافت کنید. پس همین الان شروع کنید…
بخشی از سرفصل ها
✔️ یادگیری عمیق چیست؟
✔️ واحدهای پردازشی در شبکه عصبی
✔️ مقایسه یادگیری عمیق با روش های کلاسیک یادگیری ماشین
✔️ فرآیند یادگیری در شبکه عصبی
✔️ بررسی دقیق رفتار و معادلات هر نورون
✔️ مفهوم وزن و بایاس در شبکه عصبی
✔️ مفهوم لایه ها در شبکه عصبی عمیق
✔️ بررسی دقیق محاسبات در شبکه عصبی
✔️ بررسی دقیق ویژگی های بایاس در شبکه های عصبی
✔️ نحوه محاسبه خطا در شبکه
✔️ تابع هزینه – تابع خطا (cost function/loss function)
✔️ انواع loss function در شبکه عصبی
✔️ نحوه آپدیت وزن و بایاس در شبکه عصبی
✔️ نحوه بهینه سازی در شبکه عصبی
✔️ مفهوم feed forward و بررسی پس انتشار (back propagation)
✔️ نحوه انجام پس انتشار خطا در یک شبکه عصبی
✔️ محاسبه رابطه گرادیان برای آپدیت وزن ها و بایاس ها در شبکه عصبی
✔️ دلیل اهمیت مشتق پذیر بودن تابع فعالسازی (activation function)
✔️ مفهوم تکرار شونده (iterative) بودن شبکه عصبی
✔️ مفهوم تابع فعالسازی (activation function)
✔️ انواع توابع فعالسازی و کاربردهای این توابع
✔️ محوشدگی گرادیان vanishing gradient
✔️ تاثیر توابع فعالساز در محوشدگی گرادیان
✔️ مفهوم epoch, batch, mini batch, batch size
✔️ دلیل استفاده از mini batch و تاثیر آن بر یادگیری
✔️ بررسی مفهوم optimizer ها در شبکه عصبی
✔️ بررسی مفهوم گرادیان کاهشی و الگوریتم گرادیان کاهشی (gradient descent)
✔️ بررسی دقیق انواع بهینه سازها
✔️ بررسی مفهوم کمینه محلی (local minimum) و کمینه سراسری (global minimum)
✔️ تاثیر بهینه سازها (optimizers) در پیدا کردن کمینه محلی و کمینه سراسری
✔️ الگوریتم stochastic gradient descent
✔️ الگوریتم مومنتوم momentum
✔️ بررسی نرخ یادگیری (learning rate)، نرخ یادگیری بهینه و نرخ یادگیری داینامیک
✔️ تغییر نرخ یادگیری (learning rate) در حین یادگیری شبکه
✔️ بررسی الگوریتم های: AdaGrad, RMSProp, Adam
✔️ شبکه عصبی کانولوشن چیست؟
✔️ بررسی اجزای تشکیل دهنده شبکه عصبی کانولوشن
✔️ مقایسه شبکه عصبی تماما متصل و شبکه های عصبی کانولوشن
✔️ بررسی معماری شبکه عصبی کانولوشن
✔️ یادگیری عمیق در پایتون با استفاده از تنسورفلو و کراس
✔️ شبکه عصبی کانوولوشن با تنسورفلو و کراس
ویدیوهای دوره
به این آموزش چند ستاره می دهید؟
Rating 4.70 from 20 votes
استاد این دوره خیلی عالی بود، واقعا ممنونم که چنین دوره باارزشی رو رایگان در اختیارمون گذاشتین، ممنونم از زحماتتون
خیلی عالی بود.من هر چی مقاله تو این زمینه خوندم انقدر کمک نکرد.واقعا از استاد این مباحث ممنونم
فن بیان و انتقال مطالبتون عالیه استاد کلاگر عزیز، هیچوقت فکر نمیکردم این مسائل رو بتونم به این خوبی درک کنم، بسیار متشکرم
واقعا عالی بود استاد
دست شما درد نکنه، خدا خیرتون بده واقعا.
❤❤❤