==" بما انها اول محاولة في نشر ترجمة قمت بها ,حاولوا ان تنقدوا نقد بناء عوضًا عن تذمر بخصوص سوء ترجمة :)

==" لا أعلم لماذا أضع هذا الموضوع في ترجمة عوضًا عن quora بالعربي

https://www.quora.com/What-is-a-neural-network-Can-you-tell-me-in-an-easy-language

جواب لصاحبه Sriraman Madhavan

_

لماذا لا نستخرج ردود التي تحتوي على سخرية , مهمة سهلة إليس كذالك؟ (انا استخدم المجاز الأمر لن يكون كذالك)

لنلقي نظرة على عينة من ردود ساخرة , بديهيًا إذا كان رد يحتوي على تعبيرات أجابية ولكن تقيمات منخفضة هو على الأغلب رد ساخر , مثل:

"لقد مملت من مغازلت جميلات لي , عندما اشتريت هذه سترة حُلت المشكلة" (تقيم 0.5\5)

"بوريتوا (نوع من شطائر) رائع , على الأقل الأن حاول طهو الفصولياء"(تقيم 1\5)

ربما لاحظت إن تعبيرات المستخدمة في هذه ردود أجابية(حُلت المشكلة , رائع) ولكن تقيمات منخفضة,وهذا يبدو كدليل على سخرية.

ولأن بما إننا نشك بوجود علاقة بين [تعبيرات , وتقيم] و {سخرية} , نقوم بتصنيف البيانات الأساسية :

تعبير (+1 للأجابي , 0 للمحايد , -1 لسلبي)

تقيم (0 إلى 5)

سخرية (1 لنعم , 0 للا)

https://suar.me/yBpdo

و بضعة آلاف من الأمثلة آيضاً ...

إذًا , لأيجاد العلاقة , يجب إن نعالج قيم تعبيرات وتقيمات وبطريقة ما نحصل على قيمة سخرية . سنستخدم طبقات كخطوة لتحريك المعطيات لتصبح مخرجات

لنلقي نظرة على المثال الأول

https://suar.me/Bj7Gy

https://suar.me/ZYo8l

كل خط في هذه شبكة له (وزن) سنستخدم هذه الأوزان لحساب قيمة كل دائرة في طبقة المخفية و طبقة المخرجات , (والتي نآمل إن تكون قيمتها 1) في البداية نقوم بتعين الأوزان بشكل عشوائي:

https://suar.me/GW0gm

الأن نقوم ببداء شبكتنا العصبية البدائية , لنرى ما هي المخرجات عند كل دائرة (المعرفة أيضاً بالعصبون) في طبقة المخفية وطبقة المخرجات .

نقوم بضرب قيمة المدخل مع قيمة الوزن وجمع القيم ناتجة

العصبون الأول في طبقة المخفية (1* 0.3) + (0.5 * 0.4) = 0.4

العصبون ثاني في طبقة المخفية (1* 0.2) + (0.5 * 0.6) = 0.6

العصبون ثالث في طبقة المخفية (1* 0.4) + (0.5 * 0.7) = 0.75

ونريد إن يكون ناتج (سخرية) رقم بين الواحد وصفر (وإن لم يك كذالك يصبح غير منطقي) , ونقوم بفعل هذا بواسطة أقتران سحري في طبقة المخرجات , يقوم بتحويل إي رقم إلى رقم بين الواحد وصفر . وأي أقتران نقوم بستخدامه عند أي عصبون يسمى اقتران تفعيل وفي هذه الحالة نقوم بستخدام اقتران سيجمويد على طبقة المخرجات

طبقة نهائية = (0.4 * 0.3) + (0.6 * 0.4) + (0.75 * 0.5) = 0.735

طبقة المخرجات = سيجمويد (0.735) = 0.324

إذا لدينا القيمة ولكننا توقعنا 0.324 إن تكون 1! , حسنناً ماذا سنفعل؟ نقوم بتغير الأوزان بشكل طفيف حتى نعاير قيمة طبقة المخرجات إلى قيمة تقترب من القيمة صحيحة . نقوم بهذا بستخدام طريقة تسمى (الأنتشار الخلفي)

نقوم بتكرار هذه العملية آلاف المرات حتى نغطي جميع بيانات تدريب , بتغير قيم الأوزان بشكل طفيف في كل مرة , في نهاية سنجد تركيبة "صحيحة" للأوزان والتي تقوم بتخمين إذا كانت الجملة عبارة عن سخرية , معطاة العبرات والقيم

هذه هو , أغلب تطبيقات شبكات العصبية التي تراها , هي مجرد تغيرات على هذه شبكة العصبية وبتغير تالي

بنية المعطيات والمخرجات

عدد طبقات المخفية و عدد العصبونات في كل طبقة

وكيفية ربط بين العصبونات

عملية تدريب

وأقتران تفعيل

وبعض المتغيرات الفعالة ...