day 19 - how do neural networks
work

day 19 -
how do neural networks
work

السلام عليكم ورحمة الله... معاكم Kaito :)


مرحبا بيكم فالنهار 19 ديال سلسلة 30 يوم من التعلم الآلي..


شفنا شنو هوما neurons والمكونات ديالها


شفنا شناهي activation function وكيفاش كتخدم


اليوم غنجمعو هادشي كامل


وغادي نعرفو الخطوات اللي كتدوز منهم الشبكة العصبية


باش تعلم وتعطيك نتائج اللي بغيتي


e25ee01c155e19b88a7866524b54a7e4.jpg (736×736)


شفتي هاد الرسم بزاف دلمرات وقيلا طلع ليك فراسك ماشي مشكل اتعاود تشوفو اليوم


هادي شبكة عصبية بسيطة


45_blog_image_21.png (975×463)


عندك فاليسار واحد الصف من متغيرات الادخال input variables


الاسهم اللي كيمشيو من المتغيرات لداك العصبون فالوسط هما الاوزان weights


وعلى اليمين عندك النتيجة المتوقعة ŷ او قيمة الاخراج output


وكاينة واحد القيمة التحت y هاديك هي القيمة او النتيجة الحقيقية


دبا داك الفرق بين y و ŷ هو علاياش داير الفيلم كامل


فاش كيمشيو المدخلات وكيدخلو مع الاوزان وكيدوزو لدالة التنشيط،


فالاخر كتعطينا النتيجة اللي هي ŷ


باش الشبكة العصبية ديالنا تتعلم،


كيخصنا نديرو مقارنة بين النتيجة اللي خرجات لينا،


والنتيجة الحقيقية اللي عندنا


وباش كنحسبو الفرق، كنطبقو واحد الدالة سميتها دالة التكلفة cost function (كتسمى حتى loss function)


هاد الدالة هي اللي كتعطينا نسبة الخطأ فالتوقع ديالنا


الهدف ديالنا هو نحاولو نصغرو القيمة ديال loss function


قدما كانت القيمة منخفضة،


قدما كانو ŷ و y قراب لبعضياتهم،


يعني القيمة اللي توقعناها والقيمة الحقيقية غيبقاو يتقاربو..


وبالتالي غتكون الشبكة العصبية ديالنا عندها دقة مزيانة


هاد loss function عندها بزاف ديال الانواع،


كتخدم على حساب هديك اللي مسلكا المشكل ديالك


هاد البروسيس كامل من تغذية الشبكة بالبيانات حتى توقع قيمة ŷ كيتسمى forward propagation


88777Slide3.PNG (1050×520)


مع كنحسبو loss function، كنرجعو للوراء


كنديرو اعادة التدوير


كنمشيو وكنعاودو نفس الخطوات ولكن كنبدلو فالاوزان weights،


كنديرو اوزان جداد وكنعاودو نخدمو الشبكة،


كتدير نفس الخدمة وكتوصل ل loss function كنحسبوها


وكتبقا هكا تبدل فالاوزان طالما كاين داك التباين بين y و ŷ


هاد البروسيس ديال ترجع باللور كيتسمى backpropagation


18870backprop2.png (1050×520)


ودوك الخطوات كيبقاو يتطبقو لواحد العدد من المرات


حتى كتدرب الشبكة بشكل كافي


وكيتقلل الخطا لواحد الحد ادنى عاد كتحبس..


مثلا ايلا كانت loss function هي 2^(y - ŷ)


خاص نحاولو ما أمكن ندربو الشبكة حتى نوصلوها ل 0 أو أقرب قيمة ل 0


هاد العدد من المرات اللي كيتعاود فيهم هاد البروسيس كيتسمى epochs

اذن كاين

run a neural network = (forward propagation + backpropagation) * epochs



هكا كيتعلم neural network


شوف هاد المثال:


تخيل عندنا 3 ديال input values


  • عدد ساعات الدراسة

  • عدد ساعات النوم

  • شحال جبتي فالمراقبة المستمرة CC


وبغينا نتوقعو النتيجة ديال واحد الامتحان النهائي اللي مزال مدوزنا


نقولو مثلا بلي النتيجة الحقيقية اللي عندنا هي 93%



45_blog_image_22.png (975×471)


دوك المتغيرات الثلاثة كندخلوهوم للشبكة ديالنا


وكنطبقو عليهم الاوزان ودالة التنشيط


من بعد كتخرج لينا نتيجة ŷ كنحسبو بيها cost function ديالنا باش نعرفو واش هاد ŷ مزيانة اولا لا


ايلا كان اختلاف وتباين بين y و ŷ كنعاودو نبدلو الاوزان وكنعاودو الحساب حتى كنصغرو ديك cost function


45_blog_image_23.png (975×474)


وهاد اللعيبة كتطبق شحال من مرة على بزاف ديال العينات


كل سطر عندها شبكة ديالها كتطبق forward/backward propagation


باش فالاخر يتجمع ويتشكل ليك واحد الشبكة عصبية اللي كبيرة


45_blog_image_24.png (975×471)



انشوفو كثر backpropagation وكيفاش دوك weights كيتبدلو فايمايلات جايين ان شاء الله


هادا بعجالة هو كيفاش كيخدم neural networks


كنتمنى نكون وصلت الفكرة وانكم فهمتو ولو شوية


حيث هاد الكونصيبت ماشي ساهل تفهمو مزيان من البدية


ولكن كتولف مع الوقت..


هادي خلاصة اليوم:


1*ZXAOUqmlyECgfVa81Sr6Ew.png (1200×616)


نتلاقاو فايمايل اخر غدا!


كنتمنى تكونو استافدتو.. ايلا عندكم شي تساؤل اولا مشرحتش شي حاجة مزيان، غير صيفط ليا رد فهاد المايل نيت..



— Kaito



ملاحظات:


rest-9a9e6b30329429d1385775297f1ac9d1-a5esznpy.jpg (1200×600)


السلام عليكم ورحمة الله... معاكم Kaito :)


مرحبا بيكم فالنهار 19 ديال سلسلة 30 يوم من التعلم الآلي..


شفنا شنو هوما neurons والمكونات ديالها


شفنا شناهي activation function وكيفاش كتخدم


اليوم غنجمعو هادشي كامل


وغادي نعرفو الخطوات اللي كتدوز منهم الشبكة العصبية


باش تعلم وتعطيك نتائج اللي بغيتي


e25ee01c155e19b88a7866524b54a7e4.jpg (736×736)


شفتي هاد الرسم بزاف دلمرات وقيلا طلع ليك فراسك ماشي مشكل اتعاود تشوفو اليوم


هادي شبكة عصبية بسيطة


45_blog_image_21.png (975×463)


عندك فاليسار واحد الصف من متغيرات الادخال input variables


الاسهم اللي كيمشيو من المتغيرات لداك العصبون فالوسط هما الاوزان weights


وعلى اليمين عندك النتيجة المتوقعة ŷ او قيمة الاخراج output


وكاينة واحد القيمة التحت y هاديك هي القيمة او النتيجة الحقيقية


دبا داك الفرق بين y و ŷ هو علاياش داير الفيلم كامل


فاش كيمشيو المدخلات وكيدخلو مع الاوزان وكيدوزو لدالة التنشيط،


فالاخر كتعطينا النتيجة اللي هي ŷ


باش الشبكة العصبية ديالنا تتعلم،


كيخصنا نديرو مقارنة بين النتيجة اللي خرجات لينا،


والنتيجة الحقيقية اللي عندنا


وباش كنحسبو الفرق، كنطبقو واحد الدالة سميتها دالة التكلفة cost function (كتسمى حتى loss function)


هاد الدالة هي اللي كتعطينا نسبة الخطأ فالتوقع ديالنا


الهدف ديالنا هو نحاولو نصغرو القيمة ديال loss function


قدما كانت القيمة منخفضة،


قدما كانو ŷ و y قراب لبعضياتهم،


يعني القيمة اللي توقعناها والقيمة الحقيقية غيبقاو يتقاربو..


وبالتالي غتكون الشبكة العصبية ديالنا عندها دقة مزيانة


هاد loss function عندها بزاف ديال الانواع،


كتخدم على حساب هديك اللي مسلكا المشكل ديالك


هاد البروسيس كامل من تغذية الشبكة بالبيانات حتى توقع قيمة ŷ كيتسمى forward propagation


88777Slide3.PNG (1050×520)


مع كنحسبو loss function، كنرجعو للوراء


كنديرو اعادة التدوير


كنمشيو وكنعاودو نفس الخطوات ولكن كنبدلو فالاوزان weights،


كنديرو اوزان جداد وكنعاودو نخدمو الشبكة،


كتدير نفس الخدمة وكتوصل ل loss function كنحسبوها


وكتبقا هكا تبدل فالاوزان طالما كاين داك التباين بين y و ŷ


هاد البروسيس ديال ترجع باللور كيتسمى backpropagation


18870backprop2.png (1050×520)


ودوك الخطوات كيبقاو يتطبقو لواحد العدد من المرات


حتى كتدرب الشبكة بشكل كافي


وكيتقلل الخطا لواحد الحد ادنى عاد كتحبس..


مثلا ايلا كانت loss function هي 2^(y - ŷ)


خاص نحاولو ما أمكن ندربو الشبكة حتى نوصلوها ل 0 أو أقرب قيمة ل 0


هاد العدد من المرات اللي كيتعاود فيهم هاد البروسيس كيتسمى epochs

اذن كاين

run a neural network = (forward propagation + backpropagation) * epochs



هكا كيتعلم neural network


شوف هاد المثال:


تخيل عندنا 3 ديال input values


  • عدد ساعات الدراسة

  • عدد ساعات النوم

  • شحال جبتي فالمراقبة المستمرة CC


وبغينا نتوقعو النتيجة ديال واحد الامتحان النهائي اللي مزال مدوزنا


نقولو مثلا بلي النتيجة الحقيقية اللي عندنا هي 93%



45_blog_image_22.png (975×471)


دوك المتغيرات الثلاثة كندخلوهوم للشبكة ديالنا


وكنطبقو عليهم الاوزان ودالة التنشيط


من بعد كتخرج لينا نتيجة ŷ كنحسبو بيها cost function ديالنا باش نعرفو واش هاد ŷ مزيانة اولا لا


ايلا كان اختلاف وتباين بين y و ŷ كنعاودو نبدلو الاوزان وكنعاودو الحساب حتى كنصغرو ديك cost function


45_blog_image_23.png (975×474)


وهاد اللعيبة كتطبق شحال من مرة على بزاف ديال العينات


كل سطر عندها شبكة ديالها كتطبق forward/backward propagation


باش فالاخر يتجمع ويتشكل ليك واحد الشبكة عصبية اللي كبيرة


45_blog_image_24.png (975×471)



انشوفو كثر backpropagation وكيفاش دوك weights كيتبدلو فايمايلات جايين ان شاء الله


هادا بعجالة هو كيفاش كيخدم neural networks


كنتمنى نكون وصلت الفكرة وانكم فهمتو ولو شوية


حيث هاد الكونصيبت ماشي ساهل تفهمو مزيان من البدية


ولكن كتولف مع الوقت..


هادي خلاصة اليوم:


1*ZXAOUqmlyECgfVa81Sr6Ew.png (1200×616)


نتلاقاو فايمايل اخر غدا!


كنتمنى تكونو استافدتو.. ايلا عندكم شي تساؤل اولا مشرحتش شي حاجة مزيان، غير صيفط ليا رد فهاد المايل نيت..



— Kaito



ملاحظات:


rest-9a9e6b30329429d1385775297f1ac9d1-a5esznpy.jpg (1200×600)


التالي