استخدام الروبوتات بين الفائدة والمسؤولية
تطور الذكاء الاصطناعي وصناعة الروبوتات غير بشكل جذري أساليب العمل والتعلم والتفاعل مع التكنولوجيا الجديدة
Diana Baetelu, 19.01.2026, 15:30
تطور الذكاء الاصطناعي وصناعة الروبوتات غير بشكل جذري أساليب العمل والتعلم والتفاعل مع التكنولوجيا الجديدة . فقد انتشر استخدام الروبوتات على نطاق واسع في المصانع والمستشفيات والمدارس والمنازل مسهما في رفع مستوى الكفاءة وتحسين العمليات. تقوم الروبوتات بتنفيذ العمليات المتكررة والخطيرة بدقة كبيرة وتساهم بذلك في زيادة الإنتاجية بشكل ملحوظ. فالأنظمة الذكية لم تعد مجرد أدوات بسيطة بل هي تقنيات متقدمة قادرة على تحليل المعلومات وتقديم الحلول والإجابات .
برامج الذكاء الاصطناعي مثل تشات جي بي تي وجيميني أي أي تشاتبوت تستخدم على نطاق واسع للحصول على المعلومات والدعم التعليمي وحتى لاتخاذ القرارات اليومية. ففي الطب على سبيل المثال تقوم الأنظمة الذكية بتحليل الصور لدعم التشخيص فيما تقوم الروبوتات الجراحية بعمليات بسيطة طفيفة التوغل بدقة عالية. أما في التعليم فتعمل المنصات القائمة على الذكاء الاصطناعي على تخصيص عملية التعلم وتكييف المحتوى مع احتياجات الطالب.
التقنيات القائمة على الذكاء الاصطناعي تتنوع باستمرار لكن الخبراء ينبهون إلى ضرورة فهمها ومعرفة كيفية عملها بكشل جيد للاستفادة منها إلى أقصى حد. ولكن عدد الذين يفهمون الذكاء الاصطناعي بشكل جيد قليل جدا بيد أن عواقب عدم فهمه وخيمة .
آنا ماريا ستانكو الرئيسة التنفيذية لشركة بوخارست روبوتس ومؤسسة روبوهاب وأول رومانية انتخبت لعضوية مجلس الروبوتات التابع للاتحاد الأوروبي : ” هذه العواقب هي ما يثير المخاوف بعد أن أقدم البعض على الانتحار إثر دردشة مع أحد تلك الروبوتات . فقد أظهرت دراسة أن بعض الأشخاص يصابون بالذهان بعد دردشات مع تلك الأنظمة الذكية. ما يجب أن يدركه المستخدم أن مهمة هذه الأنظمة الذكية هي إعطاء إجابات مواتية قدر الإمكان للأسئلة والمسائل المطروحة عليها . فإذا كان المستخدم مكتئبا وكتب إلى تشات جي بي تي يقول إنه “تشاجر مع زملائه وهو حزين لأن وزملاءه لا يفهمونه ” فإن إجابات الروبوت تتماشى مع هذا الطرح . لذا فلا تتوقعوا أن يقول للمستخدم أن المشكلة ربما هو وليس زملاءه أو أن يطلب منه أن يفكر مرة أخرى أو ينتظر يوما أفضل أو ما إلى ذلك . لماذا؟ لأن هذه الأنظمة ليست معالجين نفسيين ولا تستطيع أن تقول لك إنك مخطئ . ورغم أن هذه الأنظمة غير مدربة على استخدام كلمة “انتحار” في إجاباتها إلا أنها تستخدم كلمات تناسب هذا الاتجاه إذا قال المستخدم إنه يريد الانتحار. الحواسيب لا تفهم هذه الأمور لأنها ليست بشرا.”
يقوم الذكاء الاصطناعي على آليات إحصائية ورياضية متقدمة. فقد تدربت نماذج الذكاء الاصطناعي على تحليل كميات هائلة من النصوص والبيانات وتعلم العلاقات بين الكلمات والأفكار والسياقات. ولكن إجاباتها رغم سلاستها لا تعتمد على تفكير واع أو فهم حقيقي للعالم بل على نتائج حساب الاحتمالات بحسب آنا ماريا ستانكو. فالذكاء الاصطناعي يخمن الكلمات الأكثر احتمالا للظهور في الجملة وفقا للنماذج التي تعلمها أثناء التدريبات . ولهذا السبب تكون الالجابات لأحيانًا إجابات أحيانا غير كاملة أو غير دقيقة أو غير مناسبة في السياق المعني .آنا ماريا ستانكو من جديد:
هنا تكمن المشكلة الحقيقية. نحن الأجيال السابقة لدينا خبرة أطول في هذا المجال ونكتشف بسهولة الإجابات غير الصحيحة. ولكن الصغار لا يملكون من الخبرة ما يكفي للكشف عن الإجابات الكاذبة ولا يدركون أن تشات جي بي تي ليس معصوما من الخطأ . بالمناسبة فإن المختصين لا يقولون إن تشات جي بي تي يذكب بل يقولون إنه يهلوس لإنهم إذا قالوا إنه يكذب يضفون عليه صفات بشرية ويشبهونه بالإنسان.”
تمثل الروبوتات وأنظمة الذكاء الاصطناعي بلا أدنى شك خطوة هامة في سبيل التقدم ولكن التحدي يكمن في طريقة استخدامها. لذا فلا بد من التعامل معها بمسؤولية. الخبراء يحذرون من الإفراط في أتمتة التفكير وتفويض التكنولوجيا بصياغة القرارات الشخصية لأن هذه الممارسات قد تؤدي إلى الإدمان وتراجع القدرة على التفكير النقدي بما يترتب على ذلك من عواقب وخيمة.علاوة على ذلك قد يتسبب الإفراط في الأتمتة في مشاكل اجتماعية ناجمة عن استبدال القوى العاملة البشرية بالآلات . ولكن معضلة أخرى تتعلق بتحمل المسؤولية الأخلاقية والقانونية عن قرارات الروبوت. إذا – من هو المسؤول في حال اتخذ الروبوت قرارا خاطئا : هل هو المبرمج أم المستخدم أم الروبوت نفسه ؟