AI - خوارزمية K-Nearest Neighbors (KNN) بالتفصيل
🟢 AI - خوارزمية K-Nearest Neighbors (KNN) بالتفصيل
خوارزمية K-Nearest Neighbors أو KNN هي واحدة من أبسط وأقوى خوارزميات التعلم الخاضع للإشراف. تُستخدم في كل من التصنيف (Classification) والانحدار (Regression)، لكن استخدامها الأشهر في التصنيف.
📌 كيف تعمل KNN؟
فكرة KNN بسيطة جدًا:
- تحسب المسافة بين نقطة الإدخال الجديدة وكل النقاط في بيانات التدريب.
- تختار K أقرب نقاط (جيران) بناءً على هذه المسافات.
- إذا كان تصنيف، تختار الفئة الأكثر تكرارًا بين الجيران.
- إذا كان انحدار، تحسب المتوسط الرقمي للقيم عند الجيران.
📏 أشهر طرق حساب المسافة:
- Euclidean Distance – المسافة الإقليدية (الأكثر استخدامًا)
- Manhattan Distance
- Minkowski Distance
🔢 ما معنى K؟
K هو عدد الجيران الذين يتم أخذهم في الاعتبار أثناء اتخاذ القرار. مثال:
- إذا K = 3 → ننظر إلى 3 أقرب جيران.
- إذا كان اثنان منهم فئة "A" وواحد "B" → يتم تصنيف النقطة على أنها "A".
⚠️ ملاحظات مهمة عند استخدام KNN:
- الخوارزمية لا تحتاج إلى تدريب مسبق، لكنها بطيئة وقت التنبؤ.
- تتأثر بالخوارزمية المستخدمة لحساب المسافة.
- تتأثر بشدة إذا كانت البيانات غير متوازنة أو تحتوي على ضوضاء.
- اختيار قيمة K مهمة جدًا – إذا كانت صغيرة جدًا قد تسبب Overfitting، وإذا كانت كبيرة جدًا قد تسبب Underfitting.
🔍 مثال عملي (تصنيف):
نفترض أننا نريد تصنيف فاكهة حسب الوزن واللون:
- لدينا بيانات عن تفاح وبرتقال.
- نعطي KNN فاكهة جديدة (وزن = 150جم، لون = برتقالي).
- KNN تحسب المسافة وتقارن مع أقرب الجيران.
- إذا 3 من أصل 5 جيران برتقال → يصنف الفاكهة الجديدة كـ "برتقال".
🛠 أشهر الأدوات التي تدعم KNN:
- Scikit-learn – في بايثون
- Weka – بيئة مرئية لتعلم الآلة
في الدرس القادم:
سنشرح واحدة من أقوى خوارزميات التصنيف والانحدار وهي: AI - خوارزمية Decision Tree (شجرة القرار)، وسنوضح كيف تبني نموذج يشبه طريقة تفكير الإنسان في اتخاذ القرار.
تعليقات
إرسال تعليق