L13- Activation Functions (Relu | Dying Relu& Gradient Exploding)

Omar Alharbi
Omar Alharbi
2.6 هزار بار بازدید - 2 سال پیش - الجزء الثاني من محاضرة (Activation
الجزء الثاني من محاضرة (Activation Functions) والتي قدمنا فيها الـ (Relu). وضحنا الفرق بين (Relu) والاقترانات الأخرى (Sigmoid & Tanh)، وشرحنا بالتفصيل والأمثلة المبدأ الذي يقوم عليه. ووضحنا أيضا المشاكل التي تواجه الـ (Relu) مثل (Dying Relu & Gradient Exploding)، وقدمنا بعض الحلول المقترحة ومن ضمنها (Leak relu). وفي نهاية المحاضرة قدمنا ملخص لجميع (Activations Functions) وإمكانية استخدامهم سواء في (Hidden layers) أو (Output layer).
============
Check out the Full Playlist for Course 2
L1- From Logistic Regression to Neura...
============
check out the Full Playlist for Course 1
L1- Preface | تمهيد
============
Facebook Page
Facebook: Dr-Omar-Alharbi-358739018534219
2 سال پیش در تاریخ 1400/11/02 منتشر شده است.
2,613 بـار بازدید شده
... بیشتر