AI - خوارزمية K-Nearest Neighbors (KNN) بالتفصيل

🟢 AI - خوارزمية K-Nearest Neighbors (KNN) بالتفصيل

خوارزمية K-Nearest Neighbors أو KNN هي واحدة من أبسط وأقوى خوارزميات التعلم الخاضع للإشراف. تُستخدم في كل من التصنيف (Classification) والانحدار (Regression)، لكن استخدامها الأشهر في التصنيف.

📌 كيف تعمل KNN؟

فكرة KNN بسيطة جدًا:

  1. تحسب المسافة بين نقطة الإدخال الجديدة وكل النقاط في بيانات التدريب.
  2. تختار K أقرب نقاط (جيران) بناءً على هذه المسافات.
  3. إذا كان تصنيف، تختار الفئة الأكثر تكرارًا بين الجيران.
  4. إذا كان انحدار، تحسب المتوسط الرقمي للقيم عند الجيران.

📏 أشهر طرق حساب المسافة:

  • Euclidean Distance – المسافة الإقليدية (الأكثر استخدامًا)
  • Manhattan Distance
  • Minkowski Distance

🔢 ما معنى K؟

K هو عدد الجيران الذين يتم أخذهم في الاعتبار أثناء اتخاذ القرار. مثال:

  • إذا K = 3 → ننظر إلى 3 أقرب جيران.
  • إذا كان اثنان منهم فئة "A" وواحد "B" → يتم تصنيف النقطة على أنها "A".

⚠️ ملاحظات مهمة عند استخدام KNN:

  • الخوارزمية لا تحتاج إلى تدريب مسبق، لكنها بطيئة وقت التنبؤ.
  • تتأثر بالخوارزمية المستخدمة لحساب المسافة.
  • تتأثر بشدة إذا كانت البيانات غير متوازنة أو تحتوي على ضوضاء.
  • اختيار قيمة K مهمة جدًا – إذا كانت صغيرة جدًا قد تسبب Overfitting، وإذا كانت كبيرة جدًا قد تسبب Underfitting.

🔍 مثال عملي (تصنيف):

نفترض أننا نريد تصنيف فاكهة حسب الوزن واللون:

  • لدينا بيانات عن تفاح وبرتقال.
  • نعطي KNN فاكهة جديدة (وزن = 150جم، لون = برتقالي).
  • KNN تحسب المسافة وتقارن مع أقرب الجيران.
  • إذا 3 من أصل 5 جيران برتقال → يصنف الفاكهة الجديدة كـ "برتقال".

🛠 أشهر الأدوات التي تدعم KNN:

  • Scikit-learn – في بايثون
  • Weka – بيئة مرئية لتعلم الآلة

في الدرس القادم:

سنشرح واحدة من أقوى خوارزميات التصنيف والانحدار وهي: AI - خوارزمية Decision Tree (شجرة القرار)، وسنوضح كيف تبني نموذج يشبه طريقة تفكير الإنسان في اتخاذ القرار.

تعليقات

المشاركات الشائعة من هذه المدونة

Entity Framework - ما هو ORM؟ ونبذة عن Dapper وNHibernate

1.1 SQL Introduction

Entity Framework - مقدمة عن Entity Framework