قوة الخوارزميات
يحلل بيانات ويحدد نماذج ويقدم نتائج وحلولا بسرعة لا يمكن للعقل البشري بلوغها وفي الطب يمكنه المساعدة على الكشف المبكر عن الأمراض. في الاقتصاد يمكنه التنبؤ بالمخاطر. في التعليم يمكنه تخصيص المحتوى التعليمي
Diana Baetelu, 16.02.2026, 15:30
يحلل بيانات ويحدد نماذج ويقدم نتائج وحلولا بسرعة لا يمكن للعقل البشري بلوغها وفي الطب يمكنه المساعدة على الكشف المبكر عن الأمراض. في الاقتصاد يمكنه التنبؤ بالمخاطر. في التعليم يمكنه تخصيص المحتوى التعليمي.
إنه الذكاء الاصطناعي – هذه الأداة بالغة التأثير التي باتت حاضرة في حياتنا اليومية بشكل كبير. في العديد من المجالات يحل الذكاء الاصطناعي محل البشر. فأثناء قيادة السيارات يمكنه اختيار الطريق تفاديا لزحام المرور أوفي التعامل مع زبائن المصرف يمكنه الموافقة على قرض مصرفي وكل ذلك بمساعدة الخوارزميات وهي مجموعات من القواعد التي أنجزها البشر لتساعدهم على حل المشكلات. إنها في الواقع أدوات قيمة للغاية. لكن المشكلة تظهر حين تتجاوز الخوارزميات دور المساعدين لتتحول إلى صناع القرار.أ
أدريان فيكتور فيفيرا مدير المعهد الوطني للبحث والتطوير في المعلوماتية في بوخارست: “في أوكرانيا يستخدمون مسيرات “فيرست برسون فيو” أي مسيرات منظور الشخص الأول تبث مجال رؤيتها إلى مشغلها في الوقت الفعلي وتهاجم أول شخص تراه فيما تقوم بعض المسيرات من هذا النوع باختبار تقنيات الذكاء الاصطناعي القادرة على تحديد الأهداف بنسفها. فقد تساءل كثيرون عما إذا كان هذا هو المستقبل لا سيما وأن ترك مهمة اتخاذ قرارات بشأن حياة البشر لكيان غير بشري أمر حديث العهد لم يكن على بساط البحث حتى وقت قريب. في الواقع فإن استخدام الذكاء الاصطناعي في المجال العام كداعم ومساعد وأداة لزيادة الإنتاجية في وقت أقل وبتكاليف أقل شيء وترك القرارات حول حياة البشر للذكاء الاصطناعي شيء أخر. لكن من جهة أخرى فإنه من الواضح أن المجال الطبي هو أحد المجالات التي تستخدم الذكاء الاصطناعي بنجاح والاحتمال كبير أن يتزايد استخدامه في الطب بشكل سريع. ذلك أن التطبيقات الذكية قادرة على تفسير نتائج المسح والمقارنة بين ملايين الصور وتحديد التشخيص بدقة عالية وسرعة كبيرة وهي مهارات تفوق مهارات طبيب يتعلم كيف يفسر نتائج المسح تدريجيا ويكتسب مهارات التشخيص عالي الدقة بعد فترة طويلة جدا “.
ولكن الخوارزميات القادرة على اختيار المرشحين لمختلف الوظائف يمكن أن تمارس التميير ضد بعضهم عن غير قصد. كما أن نظاما آليا لتقييم المخاطر قد يتعامل مع الأشخاص بشكل مختلف في ظروف وسياقات متشابهة.
إذا – كم من القدرة على التحكم ينبغي منحها للذكاء الاصطناعي وأين يقع الخط الفاصل بين الفائدة والخطر؟
يرى الخبراء أن الذكاء الاصطناعي يجب أن يبقى أداة داعمة ذا قدرة على التحليل والتوصية والتحذير لكن القرار النهائي لا سيما في المجالات الحساسة كالصحة والأمن يجب أن يبقى بيد البشر: “لا ينبغي علينا أن نتعامل مع الذكاء الاصطناعي وكأنه هدية مطلقة تجلب لنا الرفاهية ولا كعدو محتمل يجب التصدي له من اللحظة الأولى. أعتقد أن جوهر القضية يكمن في كيفية استخدام الذكاء الاصطناعي وتحديد القواعد التي يجب اتباعها عند تطويره واستخدامه. هذه هي الطريقة الأخلاقية لاستخدامه وهذه هي الحدود التي ينبغي فرضها عليه بالتزامن مع إقرار تدابير وقائية.ففي جميع الحالات يجب أن تكون هناك دائما آلية قادرة على وقف أي شيء قد ينحرف عن المسار الذي خطط له مسبقا .
تخيلوا أن الذكاء الاصطناعي كأية كأداة أخرى قد يستخدم من قِبل أشخاص يريدونمشخاص يرغبون ارتكاب أعمال إرهابية أو التلاعب بمزاج مجتمع ما. فعلينا أن نتذكر دائما أن الذكاء الاصطناعي أداة ذات استعمالات متعددة مثل السكين تماما الذي يمكن استخدامه في المطبخ للطهي أو في ساحة المعركة كسلاح فتاك. لهذا السبب تحدثت عن آلية الوقف ووسائل الحماية ووسائل ضمان أمن استخدام الذكاء الاصطناعي .أما الجانب الأخلاقي فمن الواضح أنه يستحيل فرضه على كل من يملكون القدرة والمعرفة اللازمة لتطوير تطبيقات الذكاء الاصطناعي. ولكن استنادا إلى قاعدة أخلاقية عامة يمكن إنشاء إطار عمل من شأنه تسهيل المراقبة على تطوير تطبيقات الذكاء الاصطناعي ونتائجه.”
من هو المسؤول عن قرار خاطئ يتخذه الذكاء الاصطناعي ؟ هل هو المبرمج أم الشركة المصنعة أم المستخدم . الحقيقة أنه لا يمكن محاسبة الذكاء الاصطناعي أخلاقيا لأنه لا يملك ضميرا ولا وعيا ولا نية ولا تعاطفا وإنما ينفذ ما يطلب منه. فالأمور تزداد خطورة مع تزايد انتشار الذكاء الاصطناعي. فبحسب دراسات أُجريت عام 2024 كان أربعة بالمائة من سكان العالم يستخدمون برنامج تشات جي بي تي بعد عامين من إطلاقه. أما في رومانيا فيستخدم ما يقارب نصف الرومانيين الذكاء الاصطناعي في أنشطتهم اليومية وفقا لدراسة أجرتها في عام 2025 شركة ريفيل ماركتنغ ريسيرتش المتخصصة بأبحاث السوق.