L13- Activation Functions (Relu | Dying Relu& Gradient Exploding)
2.6 هزار بار بازدید -
2 سال پیش
-
الجزء الثاني من محاضرة (Activation
الجزء الثاني من محاضرة (Activation Functions) والتي قدمنا فيها الـ (Relu). وضحنا الفرق بين (Relu) والاقترانات الأخرى (Sigmoid & Tanh)، وشرحنا بالتفصيل والأمثلة المبدأ الذي يقوم عليه. ووضحنا أيضا المشاكل التي تواجه الـ (Relu) مثل (Dying Relu & Gradient Exploding)، وقدمنا بعض الحلول المقترحة ومن ضمنها (Leak relu). وفي نهاية المحاضرة قدمنا ملخص لجميع (Activations Functions) وإمكانية استخدامهم سواء في (Hidden layers) أو (Output layer).
============
Check out the Full Playlist for Course 2
L1- From Logistic Regression to Neura...
============
check out the Full Playlist for Course 1
L1- Preface | تمهيد
============
Facebook Page
Facebook: Dr-Omar-Alharbi-358739018534219
============
Check out the Full Playlist for Course 2
L1- From Logistic Regression to Neura...
============
check out the Full Playlist for Course 1
L1- Preface | تمهيد
============
Facebook Page
Facebook: Dr-Omar-Alharbi-358739018534219
2 سال پیش
در تاریخ 1400/11/02 منتشر شده
است.
2,613
بـار بازدید شده