Cancel Preloader
ندوات المركز

الذكاء الاصطناعي وتحديات التربية العلمية

الذكاء الاصطناعي وتحديات التربية العلمية

نظّم مركز الأبحاث والدراسات التربوية الملتقى التربوي رقم 3 للعام 2025 وذلك عصر نهار الخميس بتاريخ 24-4-2025 م، تحت عنوان [الذكاء الاصطناعي وتحديات التربية العلمية] (قدمه الأستاذ سامر جابر).

  • المداخلة رقم 1: الذكاءِ الاصطناعيِّ وتحقيقِ الأمنِ المجتمعيِّ والتربويِّ (د. علي أحمد/ لبنان)
  • المداخلة رقم 2: الأخلاقياتِ والتشريعاتِ في توظيفِ الذكاءِ الاصطناعيِّ تربويًّا (د. قاسم دنش/ لبنان)

 

تقديم الملتقى من قبل الأستاذ سامر جابر قال فيه:

في زمنِ الذكاءِ الاصطناعي، تتغيّرُ موازينُ القُوَى... ولهذا أصبح الصراعُ بينَ الدولِ العظمى لا يُقاسُ فقط بالقنابلِ النوويةِ أو الجيوشِ الجرارةِ، بل باتَ يُدارُ على جبهاتٍ خفيةٍ تُبرمجُ فيها الخَوَارِزْمِياتُ، وتُشكّلُ فيها العقولُ مَلامِحَ المستقبلَ. إننا نعيشُ سِباقًا محمُومًا للسيطرةِ على مفاتيحِ هذه التقنيةِ الثوريةِ، وسطَ محاولاتٍ للاحتكارِ والتفوقِ، تقودُها الولاياتُ المتحدةُ في وجهِ منافسينَ كِبارٍ كالصينِ.

 

غيرَ أنَّ السؤالَ الأهمَّ لمْ يَعُدْ ما هو الذكاءُ الاصطناعيُّ؟ بل: لِمَن سيكونُ؟ ومَن سيُجيدُ توظيفَهُ في معاركِ الوجودِ والسيادةِ؟

 

وكما واجهَ مِحْوَرُ المقاومةِ أعاصيرَ العقودِ الماضيةِ بصبرٍ وصمودٍ وإبداعٍ وانتصار، فإنَّ التحديّ اليومَ هو إطلاقُ ثورةٍ علميةٍ معرفيةٍ، تنهضُ بالبحثِ والتجريبِ، وتمنحُ الذكاءَ الاصطناعيَّ مكانتَهُ كرافعةٍ أساسيةٍ في معركةِ التحرّرِ وبِناءِ المجتمعاتِ.

فنحنُ نُقبلُ على زمنٍ تتشكّلُ فيه ملامحُ "مجتمعِ الذكاءِ الاصطناعيِّ"، حيثُ تتحوّلُ الأدواتُ التربويةُ إلى جبهاتٍ للوعي، وتُصبحُ المدارسُ والجامعاتُ ساحاتٍ للمواجهةِ الناعمة، وكما نبّهَ إلى ذلك الإمامُ القائدُ حفظَهُ اللهُ قائِلاً: "في عصرِ الذكاءِ الاصطناعيِّ لا يمكنُ العملُ بأساليبِ الأعوامِ الأربعينَ السابقةِ، فالأدواتُ تتغيّرُ، لكن ما لا يتغيّرُ هو الجبهاتُ". حيث حّذر الإمام القائد من محاولاتِ القوى العالميَّةِ لاحتكارِ الذكاءِ الاصطناعيِّ، فيُضِيفُ قَائلِاً: "إذا لم تتمكّنوا من فهْمِ المُستوياتِ العَميقةِ والمتنوّعَةِ لهذه التِقنيةِ... فإنّهم سيُؤسّسون هيئةً شبيهةً بالوكالةِ الدوليَّةِ للطاقةِ الذريَّةِ."

وانطلاقًا من هذه الرؤيةِ، يأتي هذا الملتقى ليضعَ الذكاءَ الاصطناعيَّ في قلبِ المعركةِ التربويَّةِ والاجتماعيَّةِ، لا بوصفِهِ خيارًا تقنيًّا فقط، بل باعتبارِهِ ضرورةً استراتيجيَّةً لبناءِ مجتمعاتٍ آمنةٍ، ومناهجَ تعليميَّةٍ متجدّدةٍ، وأجيالٍ قادرةٍ على الإنتاجِ، لا الاستهلاكِ، وعلى المقاومةِ، لا التبعيَّةِ.

 

نطرحُ في هذا الملتقى أسئلتَنا:

كيف نُسخّرُ الذكاءَ الاصطناعيَّ في تطويرِ التربيةِ العلميَّةِ؟

كيف نواجهُ مخَاطرهُ التشريعيَّةَ والأخلاقيَّةَ؟

وكيفَ نبني جيلًا يسيرُ على خُطى الثورةِ، مُسلّحاً بالعِلْمِ، دونَ أن يفقِدَ بوصَلَتَهُ الثقافيَّةَ والدينيَّةَ؟

 

في المحور الأول: الدكتور علي أحمد سيتحدث حول الذكاءِ الاصطناعيِّ وتحقيقِ الأمنِ المجتمعيِّ والتربويِّ، حيث سيُسلّطُ الضَوْءَ على مفهومِ الأمنِ المجتمعيِّ وعلاقتِه بالذكاءِ الاصطناعيِّ، ويبحثُ في كيفيّةِ توظيفِ التربيةِ الذكيّةِ لتعزيزِ هذا الأمنِ، إلى جانبِ التحدّياتِ المرتبطةِ بالحفاظِ على الهُويّةِ الثقافيّةِ، مع تقديمِ نماذجَ عمليّةٍ لكيفيّةِ استخدامِ الذكاءِ الاصطناعيِّ في الحدِّ من المخاطرِ التربويّةِ والاجتماعيّةِ.

 

في المحورِ الثاني: الدكتور قاسم دنش سيتحدث حول الأخلاقياتِ والتشريعاتِ في توظيفِ الذكاءِ الاصطناعيِّ تربويًّا، حيث سَيُسَلِّطُ الضوءَ على أهميةِ الالتزامِ بالقيمِ الأخلاقيةِ في التعاملِ مع هذه التقنيةِ، ليستعرضُ الضوابطَ التشريعيةَ التي من شأنِها أن تضمنَ الاستخدامَ السليمَ في البيئةِ التربويةِ، كما سَيَتَطَرَّقُ إلى المخاطرِ المحتملةِ الناتجةِ عن الاستخدامِ غيرِ المنضبطِ، ويقدِّمُ نماذجَ وآلياتٍ عمليةً للضبطِ التربويِّ والتقنيِّ، ما يُعزِّزُ حضورَ الذكاءِ الاصطناعيِّ كأداةٍ فاعلةٍ وآمنةٍ في تطويرِ العمليةِ التعليميةِ.

 

المداخلة رقم 1: (د. علي أحمد/ لبنان)

بدأ د. أحمد كلامه من خلال:

مقدمة: الذكاء الاصطناعي وتحقيق الأمن المجتمعي والتربوي

لم يعد الأمن في عالم اليوم مفهومًا تقليديًا محصورًا في البعد العسكري أو الأمني المباشر كما كان في الماضي، بل تحوّل خلال العقود الأخيرة إلى رؤية شاملة تمسّ جميع جوانب حياة الإنسان والمجتمع. فقد أصبح الأمن منظومة متداخلة تشمل إلى جانب البُعد العسكري: الأمن الثقافي، والأمن التربوي، والأمن الاجتماعي، والأمن السيبراني، بل حتى الأمن النفسي والمعنوي. ولم تعد المجتمعات تسعى فقط إلى الحماية من الحروب أو الجرائم، بل تتطلع إلى بناء فضاء مستقر وآمن على مستوى الهوية، القيم، التربية، الاقتصاد، والعلاقات الاجتماعية.

في هذا السياق، أصبح من الضروري مقاربة نوع جديد من التهديدات والفرص التي باتت تصوغ مستقبلنا، وفي مقدمتها: الذكاء الاصطناعي. فلم يعد هذا المجال مجرد تقنية أو أداة حوسبية تُستخدم في التطبيقات الصناعية والتجارية، بل تحوّل إلى بنية فكرية واستراتيجية تعيد صياغة طريقة تفكير الإنسان، وتشكّل المؤسسات التعليمية والتربوية، وترسم خرائط جديدة للعلاقات الاجتماعية، وتفرض أنماطًا جديدة من السلطة والمعرفة.

وفي ظل التحوّل الرقمي المتسارع، بات الذكاء الاصطناعي أحد أبرز القوى المؤثرة في مسألة الأمن المجتمعي والتربوي. فهو يملك قدرة هائلة على جمع وتحليل البيانات، ورصد الاتجاهات السلوكية، والتدخل المبكر للوقاية من الأزمات النفسية والاجتماعية. ولكنه في الوقت نفسه، إذا ما استُورد من بيئات ثقافية لا تنسجم مع قيمنا، أو طُبّق من دون ضوابط، فقد يتحوّل إلى أداة تهديد للتماسك الاجتماعي، وتشويه الوعي التربوي، وإنتاج أزمات أخلاقية ومفاهيمية حادّة.

من هنا تبرز الرؤية الاستراتيجية العميقة التي عبّر عنها الإمام القائد السيد علي الخامنئي (حفظه الله)، والتي تُعد من أهم المداخل الفكرية لفهم الذكاء الاصطناعي في بعده الأمني والحضاري. فقد أكد سماحته في أكثر من مناسبة أن الذكاء الاصطناعي "يشهد تسارعًا مذهلًا"، وأنه "سيمثّل عنصرًا محوريًا في التحكّم بمستقبل العالم"، داعيًا إلى أن تكون الجمهورية الإسلامية في طليعة الدول العشر الأولى في العالم في هذا الميدان، لا كمستهلكة بل كصاحبة مشروع مستقل.

وحذّر الإمام الخامنئي (حغظه الله) من خطورة أن تحتكر القوى العالمية الكبرى هذه التكنولوجيا، وتوظفها لإنشاء آليات سيطرة ناعمة شبيهة بالوكالة الدولية للطاقة الذرية، ولكن هذه المرة في الفضاء الرقمي والعقلي، الأمر الذي يهدّد استقلالية الشعوب وهوياتها ويحوّل الذكاء الاصطناعي من فرصة إلى أداة هيمنة ناعمة.

انطلاقًا من هذه الرؤية، تُصبح الحاجة ملحّة لإعادة طرح السؤال الجوهري: كيف نستثمر الذكاء الاصطناعي لصالح أمننا التربوي والمجتمعي، دون أن نخسر هويتنا؟ كيف نجعل منه أداة لحماية القيم لا لتذويبها؟ وساحة لإبداع الحلول لا لانقياد المجتمعات؟ وكيف يمكننا أن ننتج نظامًا معرفيًا محليًا يستند إلى الذكاء الاصطناعي، ويخدم متطلباتنا دون الارتهان لمنظومات فكرية وتربوية لا تمثلنا؟

هذه الأسئلة تمثل المدخل الأساسي لفهم العلاقة المركبة بين الذكاء الاصطناعي والتربية والأمن المجتمعي، وهي ما سنحاول معالجته في هذا الملتقى العلمي التربوي من خلال ثلاث محاور رئيسية، يليها توصيات، وهي على الشكل الآتي:

  1. شرح مفهوم الأمن المجتمعي وعلاقته بالذكاء الاصطناعي.
  2. تحليل دور التربية الذكية في تعزيز الأمن الاجتماعي (من المسار التربوي الجماعي للمسار التربوي التخصصي الفردي).
  3. الوقوف على التحديات الثقافية التي تهدد الهوية.
  4. اقتراحات وتوصيات تنفيذية.

 

المحور الأول: في ظل الثورة الرقمية الذكاء الاصطناعي كأداة أمن مجتمعي متعددة الأوجه

لقد دشّنت الثورة الرقمية، بما فيها من تطورات متسارعة في تقنيات الذكاء الاصطناعي، مرحلة جديدة في العلاقة بين الإنسان والمعلومة، وبين المجتمع ونظامه الأمني. لم يعد الأمن المجتمعي يعتمد فقط على أدوات المراقبة التقليدية أو الرصد الأمني الكلاسيكي، بل بات يُبنى على أساس تحليل السلوك وتوقّع المستقبل، لا مجرد الاستجابة للحوادث.

الذكاء الاصطناعي يتمتع بقدرة فائقة على قراءة الأنماط المعقّدة في السلوك الإنساني والاجتماعي، واستنباط المؤشرات المبكرة للمخاطر، مما يجعله أداة قوية، لكن مزدوجة الحافة: فهي قادرة على تعزيز الأمن، كما قد تُستغل لانتهاك الحريات إن لم تُضبط بمنظومة أخلاقية واضحة.

 

 

 

وفيما يلي تفصيل أكثر عمقًا لأبرز تطبيقات الذكاء الاصطناعي في الأمن المجتمعي:

  1. أنظمة المراقبة الذكية: نحو التحوّل من الردّ إلى الوقاية

لم تعد الكاميرات مجرّد أعين تلتقط ما يحدث، بل تحوّلت إلى كيانات رقمية تفكّر، تقارن، وتحكم. خوارزميات الرؤية الحاسوبية (Computer Vision) المعتمدة على الذكاء الاصطناعي، تتيح تحليل السلوك في الزمن الحقيقي، وفهم ما إذا كان المشهد طبيعيًا أم يُنبئ بخطر وشيك.

كيف تعمل؟

تقوم هذه الأنظمة بالتقاط صورة لحظية للمشهد، ثم مقارنتها بنماذج سلوكية مبرمجة مسبقًا:
هل هذا التجمع في الشارع طبيعي؟ هل هذا الطفل يتحرّك بشكل يوحي بأنه ضائع أو مضطهد؟ هل هناك سلوك عنيف يتنامى في ساحة المدرسة؟

الخوارزمية تُصدر تنبيهًا فوريًا إذا ما تم تجاوز العتبات المقررة (thresholds)، فيُتاح للجهات المختصة التدخّل قبل وقوع الخطر.

الأهمية التربوية:

تُمكّن هذه التقنية المدارس مثلًا من رصد حالات العنف أو التحرش أو الانتحار قبل أن تتطور، ما يربط مباشرة بين التقنية والأمن التربوي.

المعضلة الأخلاقية:

يبقى التحدي هو من يبرمج هذه الخوارزميات؟ ومن يحدد ما هو "سلوك منحرف"؟ هل نثق بنماذج غربية تنظر للزيّ الإسلامي كعلامة تطرف؟ هنا يأتي دور السيادة التكنولوجية المحلية.

 

  1. تحليل البيانات الاجتماعية: من الأرقام إلى الفهم السوسيولوجي

في السابق، كان علم الاجتماع يعتمد على الدراسات الميدانية والمقابلات لتكوين صورة عن المجتمع. اليوم، الذكاء الاصطناعي يستطيع تحليل ملايين التفاعلات الرقمية والربط بينها، واستخراج خلاصات عميقة عن بنية المجتمع وتحولاته. من عدّة مصادر للبيانات، منها:

  • الأداء الدراسي في المدارس.
  • نشاط الأفراد على وسائل التواصل الاجتماعي.
  • سجلات المساعدات الاجتماعية.
  • تقارير الأخصائيين الاجتماعيين والنفسيين.

 

من خلال هذا الذكاء الاصطناعي ما الذي يمكن اكتشافه؟

  • تفكك أسري صامت يظهر في غياب التفاعل الأسري الرقمي.
  • تصاعد خطاب الكراهية بين طلاب من طوائف أو خلفيات مختلفة.
  • تحولات الهوية لدى فئات الشباب نتيجة متابعة محتوى ثقافي غريب عن البيئة.

الفائدة المجتمعية:

هذا النوع من التحليل يسمح للحكومات والمؤسسات التربوية ببناء سياسات وقائية ذكية، وليس فقط تقديم حلول بعدية. مثلًا، بدلًا من انتظار موجة عنف شبابي، يتم التدخل عبر برامج تربوية مدروسة قبل أن تتفجّر الأزمة.

 

  1. التحذير المبكر من المخاطر النفسية والاجتماعية: ذكاء يرصد الألم قبل الصرخة

واحدة من أبرز إسهامات الذكاء الاصطناعي في تعزيز الأمن المجتمعي، هي قدرته على فهم الإشارات النفسية المبكرة التي يُطلقها الأفراد عبر سلوكهم الرقمي، حتى دون وعي منهم.

حيث تعتمد الخوارزميات على ما يُعرف بـ تحليل المشاعر (Sentiment Analysis)، حيث تُرصد الكلمات والعبارات والتفاعلات، وتُصنَّف بحسب مستويات الخطر.

 

  1. تحدي الخصوصية:

رغم الفائدة الهائلة، إلا أن هذا النوع من التدخل يفتح بابًا واسعًا للنقاش حول الخصوصية، وحدود التدخل، وضرورة وجود إطار قانوني تربوي أخلاقي يضمن الاستخدام المسؤول.

 

خلاصة هذا المحور:

يمثّل الذكاء الاصطناعي اليوم إحدى أبرز أدوات التحوّل في بناء الأمن المجتمعي، لا من خلال الحماية الفيزيائية وحدها، بل عبر قدرته على قراءة الأنماط السلوكية، واستباق المخاطر، وتقديم حلول وقائية دقيقة تستند إلى تحليل البيانات في الزمن الحقيقي. إلا أن هذه القدرات التقنية الكبيرة، لا يمكن النظر إليها بمنظار محايد، أو استخدامها بطريقة عشوائية أو مقلّدة.

فالذكاء الاصطناعي ليس مجرّد أداة تقنية تعمل بمعزل عن السياق، بل هو مشروع حضاري بحد ذاته، يُعيد تعريف العلاقة بين الفرد والمؤسسة، بين الحرية والرقابة، وبين التقنية والإنسان. ولهذا، فإن توظيفه في المجال التربوي والمجتمعي لا بد أن يكون محكومًا بثلاثة شروط أساسية:

  1. الحكمة في الإدارة: أي أن يُدار من خلال رؤية متكاملة تفهم التقنية، ولكن تُوازن بينها وبين الأبعاد الإنسانية والنفسية والاجتماعية. فالأمن لا يُبنى فقط بالخوارزميات، بل بالبصيرة التربوية والحنكة في التعامل مع البيانات.
  2. مرجعية ثقافية واضحة: أي أن تُصاغ الخوارزميات وأنظمة التوصية وأدوات المراقبة الرقمية استنادًا إلى قيم المجتمع وثوابته الأخلاقية والدينية، لا أن تستورد نماذج قيمية غريبة تفرض على الناس سلوكًا ونمط حياة لا يعبر عنهم.
  3. الموازنة الدقيقة بين الوقاية والخصوصية: فالذكاء الاصطناعي قادر على كشف أسرار وسلوكيات دقيقة جدًا، وقد يتحوّل إلى أداة قهر إذا لم يُضبط. المطلوب ليس فقط حماية الأفراد من المخاطر، بل أيضًا حمايتهم من انتهاك خصوصيتهم باسم الحماية نفسها.

ولهذا، فإن المسؤولية في توجيه الذكاء الاصطناعي يجب ألا تبقى حكرًا على التقنيين والمبرمجين، بل يجب أن يشترك فيها خبراء الاجتماع، والمربّون، وعلماء النفس، وأهل الفكر والدين، ليُعاد تشكيل هذا المسار ضمن رؤية إنسانية متكاملة.

الذكاء الاصطناعي ليس قدَرًا تكنولوجيًا لا يمكن التحكم فيه، بل هو أداة بيد من يمتلك الرؤية والبوصلة.

 

كخلاصة لدينا أدوات كثيرة، ولكن نحتاج إلى تحوّل عقلي لفهم ماذا نريد؟ وكيفية توظيف أهدافنا؟ ودراسة كيف يمكن لأدوات الذكاء الاصطناعي وأدوات التحليل المتاحة بشكل كبير جدًا لتخصيص هذه العملية؟ وللذهاب إلى تحوّل عقلي جديد يمكننا من خلال إعادة قراءة الواقع والقضايا المجتمعية.

 

 

المحور الثاني: تحوّل في مفهوم التعليم من النموذج الجماعي إلى المسار الفردي التربوي

 

إن من أهم التغيرات الجوهرية التي بدأ الذكاء الاصطناعي في فرضها على النظم التربوية هو نقل مركز الثقل من "الصف" إلى "الفرد"، ومن "المنهاج الموحد" إلى "المسار الشخصي" لكل متعلم. لقد تعوّدت المدرسة التقليدية أن تنظر إلى المتعلمين كوحدة متجانسة تتلقى المحتوى نفسه، وتخضع للتقييم نفسه، وتُقاس بميزان واحد. لكن هذه الرؤية، وإن كانت مناسبة لعصر الصناعة والانضباط الجماعي، لم تعد صالحة في عصر الذكاء الاصطناعي، حيث يمكن لكل طالب أن يسلك طريقًا تربويًا مختلفًا بحسب قدراته، اهتماماته، وحالته النفسية.

 

 

  1. التعليم الفردي المبني على الأهداف الشخصية

الذكاء الاصطناعي يُمكِّن اليوم كل طالب من أن يكون له "بروفايل تربوي" ديناميكي، يتم تحديثه باستمرار وفق أدائه وسلوكه وتفاعله. هذا الملف لا يتوقف عند درجات الامتحان، بل يشمل جوانب أكثر عمقًا:

  • مستوى الفضول العلمي.
  • التفاعل الاجتماعي.
  • النضج العاطفي.
  • أسلوب التفكير المفضل (تحليلي، إبداعي، تجريبي...).

ومن خلال هذا النموذج، لم يعد المطلوب من الطالب أن يواكب النظام، بل أصبح النظام هو من يواكب الطالب. أي أننا أمام ثورة في مفهوم العدالة التعليمية: العدالة لم تعد تعني إعطاء الجميع نفس الشيء، بل إعطاء كل فرد ما يحتاجه فعلاً ليصل إلى نموه الكامل.

 

  1. إعادة الاعتبار للبعد التربوي في المدرسة

في ظل هذا التحول، تتغير أيضًا وظيفة المدرسة. فليست المدرسة اليوم مجرد مكان لنقل المعارف أو تحضير الامتحانات، بل هي مساحة لصقل الشخصية، وبناء الإنسان، وتعزيز منظومة القيم والتوازن النفسي. فالذكاء الاصطناعي، حين يُوظف بطريقة صحيحة، يمكن أن يحرر المعلمين من بعض الأعباء التقنية والتنظيمية، ويتيح لهم التركيز على جوهر رسالتهم: وهي التربية، وليس التعليم فقط.

المدرسة الذكية لا تضع الامتحان في مركز العملية التعليمية، بل تجعل من النمو الشخصي والسلوكي هو المؤشر الحقيقي للنجاح. وهذا يتطلب:

  • مرشدين تربويين يتابعون كل طالب على حدة.
  • أنظمة ذكاء اصطناعي ترصد التحولات النفسية والسلوكية وتنبّه المعنيين.
  • مناهج مرنة تسمح بتكييف محتواها حسب الواقع التربوي للطلاب.

 

  1. الذكاء الاصطناعي كأداة لبناء "بيئة تربوية حاضنة"

في هذا السياق، لا يجب أن يُستخدم الذكاء الاصطناعي كبديل عن المربّي أو الإنسان، بل كوسيط يعزّز العلاقة التربوية بين الطالب والمعلم، وبين الطالب وذاته. الذكاء الاصطناعي يمكنه مثلاً:

  • اكتشاف علامات الإحباط أو التراجع العاطفي لدى الطالب.
  • اقتراح أنشطة تعزز ثقته بنفسه.
  • تحديد أنماط ضعف التفاعل الجماعي وتقديم حلول تربوية.

 

  1. من المعلم الناقل إلى "المرافق التربوي"

يغيّر هذا النموذج أيضًا من دور المعلم، الذي لم يعد الملقِّن الوحيد للمعلومة، بل صار "مرافقًا تربويًا" يتابع تطور الطالب، يساعده على فهم ذاته، ويوجهه نحو مساره الأكاديمي أو المهني المناسب.

وهذا يضع تحديًا جديدًا على كليات التربية ومراكز إعداد المعلمين: إعداد مربّين يفهمون الذكاء الاصطناعي، لا ليخافوه، بل ليستخدموه في تعزيز الفعل التربوي، لا في استبداله.

 

  1. التعليم كأداة لبناء الحصانة المجتمعية

عندما تُبنى العملية التعليمية على قاعدة فردية تربوية، فإن أثرها لا يقتصر على الطالب كفرد، بل يتسع ليشمل بنية المجتمع بأكمله. فكل طالب يتم تعليمه وتربيته وفق احتياجاته النفسية والعقلية والقيمية، يكون أكثر استعدادًا للاندماج الإيجابي، وأقل عرضة للانحراف أو التطرف أو الانسحاب الاجتماعي. التربية الذكية هنا تتحول إلى أداة استراتيجية لإنتاج مواطنين محصنين، متصالحين مع ذواتهم، ومنتمين إلى مجتمعاتهم.

في هذا النموذج، تصبح المدرسة خط الدفاع الأول في مواجهة التهديدات المجتمعية الناعمة: من العنف الأسري، إلى الإدمان الرقمي، إلى الشذوذ الثقافي. ومع وجود الذكاء الاصطناعي، تصبح هذه المواجهة أكثر دقة، وأقوى تأثيرًا، شرط أن تُدار برؤية تربوية إنسانية واعية.

 

  1. ضرورة سيادة القيم في برمجة الذكاء الاصطناعي التعليمي

ليس الذكاء الاصطناعي حياديًا في ذاته، بل هو انعكاس لمن يُصممه وللقيم التي تحكم خوارزمياته. فإذا تم استيراد أدوات الذكاء الاصطناعي التعليمية من بيئات ثقافية لا تشبه مجتمعاتنا، فإن الخطر يكمن في أن يتم إعادة برمجة عقول طلابنا وفق نماذج ثقافية دخيلة، مما يُضعف البنية القيمية والهوياتية للمجتمع على المدى الطويل.

ولهذا، لا يكفي استخدام AI في التعليم، بل لا بد من امتلاك أدواته، والتحكم في محتواه، وتوجيهه لخدمة أولوياتنا التربوية والاجتماعية والثقافية. إن لم نفعل ذلك، سنجد أنفسنا ندرّس طلابنا عبر تقنيات حديثة، لكننا في الحقيقة نغذّيهم بأفكار وقيم لا تنتمي إليهم.

دور الجامعة: من إنتاج المتعلّم إلى صناعة القائد الواعي

في خضم التحوّلات الجذرية التي تشهدها العملية التربوية بفعل الذكاء الاصطناعي، تبرز الجامعة بوصفها الفضاء الأكثر تأثيرًا في تشكيل الإنسان المعاصر، وتهيئته ليكون فاعلًا ومؤثرًا لا مجرد مستهلك للمعرفة. فلم تعد الجامعة مجرد مكان يمنح شهادات، أو يلقّن المعلومات، بل تحوّلت – أو يجب أن تتحوّل – إلى منصّة حضارية تُصوغ فيها ملامح القادة، وتُستثمر فيها الطاقات الفردية ضمن مشروع مجتمعي طويل الأمد.

في هذا الإطار، لا يكفي للجامعة أن تتبع تحولات الذكاء الاصطناعي، بل عليها أن تقوده من الداخل بقيم معرفية وفكرية واضحة، وتؤسّس لبيئة تُعلّم الطالب كيف يفكّر، لا فقط ماذا يتعلّم، وكيف يصنع رؤيته، لا فقط كيف يحفظ رأي غيره. القائد الذي نحتاجه في مجتمعاتنا ليس بالضرورة من يتقن التقنية فحسب، بل من يُحسن استخدامها في خدمة الإنسان والمجتمع، ويحمي هويته وسط العواصف الرقمية.

 

من المتعلّم إلى القائد: ملامح التحول في الوظيفة الجامعية

  1. الطالب مشروع، لا متلقٍ

ينبغي أن تتعامل الجامعة مع الطالب كصاحب مشروع ذاتي متكامل، له طموح ورؤية ومسار، وتُصمّم له بيئة تعليمية مرنة تحتضن خصوصيته، وتُنمّي قدراته، وتُصقل شخصيته. فالمستقبل ليس للمتخصصين فقط، بل للمبادرين والمبتكرين وصُنّاع التغيير.

  1. الذكاء الاصطناعي كأداة للتمكين، لا للاستبدال

على الجامعة أن تدرّب الطالب على كيفية التحكّم بالذكاء الاصطناعي، لا الخضوع له، وذلك عبر دمج أدوات الذكاء الاصطناعي في التعلّم، والبحث، والتحليل، ولكن دون أن تفقد العملية طابعها الإنساني والأخلاقي. التقنية هنا وسيلة لصناعة القائد، لا بديلًا عن التربية.

  1. ربط التكوين الجامعي بالمجتمع لا بسوق العمل فقط

ينبغي أن تخرج الجامعة من الدور الاقتصادي الضيق – إعداد موظف لوظيفة – إلى الدور الاجتماعي الأوسع: إعداد فرد واعٍ بمشاكل مجتمعه، مدرك لأبعاده الحضارية، متفاعل مع قضايا وطنه، وقادر على المبادرة لحلها. وهذا يتحقق حين تكون المشاريع الجامعية، ومقررات التدريب، والبحث العلمي موجّهة نحو التحديات الفعلية لا فقط المسارات الأكاديمية.

  1. مركزية البعد القيمي في التكوين القيادي

القائد لا يُبنى بالمعرفة فقط، بل بالقيم. لذلك على الجامعة أن تُعيد الاعتبار للبعد القيمي والأخلاقي في التعليم الجامعي، من خلال:

    • مقررات في الفكر، والمنطق، والفلسفة الأخلاقية.
    • بيئة تحفّز الحوار والاختلاف البنّاء.
    • إشراك الطلاب في قضايا المجتمع، لا سيما في مراحل الأزمات.
  1. بيئة تحفّز القيادة من خلال الممارسة

لا يُمكن صناعة قائد من دون تجربة. لذلك يجب أن توفّر الجامعة للطلاب:

    • منصات طلابية حقيقية لإدارة القرار والمبادرة.
    • فرق عمل تطوعية تقود مشاريع داخل المجتمع.
    • مسابقات فكرية وعلمية تستفزّ ملكاتهم القيادية.

 

نموذج مستقبلي للجامعة الذكية التربوية

الجامعة القائدة في ظل الذكاء الاصطناعي هي الجامعة التي:

  • تدمج المهارات التكنولوجية بالأسس الإنسانية.
  • توازن بين التخصص العميق والرؤية الشمولية.
  • تزرع الثقة في نفوس طلابها بأنهم ليسوا فقط "أدوات إنتاج" بل صُنّاع مستقبل وقادة حضارة.

إن الذكاء الاصطناعي لم يعد مجرد وسيلة تقنية بل أصبح أداة لإعادة صياغة الإنسان نفسه: كيف يتعلّم، كيف يتواصل، وكيف يفكر، وكيف يبني أمنه الشخصي والجماعي. لقد تجاوزت تقنيات الذكاء الاصطناعي حدود البرمجة والمعالجة الرقمية، لتتسلل إلى عمق البنية التربوية والثقافية والاجتماعية، فارضة على المؤسسات التعليمية، وعلى المجتمعات عمومًا، أن تعيد النظر في مفاهيمها، وأولوياتها، وطرائق عملها.

ومن هنا، فإن الحديث عن التربية الذكية والأمن المجتمعي لم يعد ترفًا فكريًا أو تنظيرًا مستقبليًا، بل ضرورة وجودية في زمن تتداخل فيه الحدود بين المعلومة والتوجيه، وبين التقنية والسيطرة، وبين التعليم والتطبيع. الذكاء الاصطناعي قد يكون أداة تحرير وتمكين، كما قد يكون وسيلة تكييف واستلاب، تبعًا للجهة التي تملكه، وللقيم التي تحكمه.

إننا أمام فرصة تاريخية لإعادة هندسة العلاقة بين الإنسان والمعرفة والتقنية، فرصة لبناء منظومة تعليمية جديدة تؤمن بالاختلاف الفردي، وتمنح كل طالب حقه في أن يُربّى على مقاس إنسانيته لا على مقاس النظام، وتعيد للجامعة دورها القيادي لا الوظيفي، وللمعلّم رسالته التربوية لا مجرّد دوره التقني.

لكن هذه الفرصة مشروطة بشرطين أساسيين:

  1. أن نمتلك هذه الأدوات ونُعيد برمجتها من الداخل، بثقافتنا وقيمنا وهويتنا.
  2. أن نتّخذ قرارًا فكريًا شجاعًا بأن الذكاء الاصطناعي يجب أن يُستخدم لصالح الإنسان، لا لتحويله إلى تابع أو رقم في نظام لا يفهمه.

ومن هنا، فإن بناء مؤسسات تربوية من مدارس وجامعات ذكية، وتربية ذكية، ومجتمع ذكي، لا يكون إلا ببوصلة قيمية واضحة، وإرادة فكرية صلبة، ومشروع حضاري يحمل ملامحنا، لا ملامح الآخرين. فإما أن نكون روّادًا في هذا التحول، أو نُصبح ضحاياه.

 

المحور الثالث: تحديات الذكاء الاصطناعي في الحفاظ على الهوية الثقافية

أولًا: المشكلة الجوهرية – التلقين الثقافي المقنّع

في الظاهر، يبدو الذكاء الاصطناعي مجرد تقنية تعمل بطرق رياضية حيادية، لكنها في جوهرها مبنية على قواعد معرفية ومجموعة قيم تُغرس داخل الخوارزميات منذ لحظة البرمجة الأولى. ومعظم هذه الخوارزميات – خصوصًا في قطاع التعليم – يتم تطويرها داخل بيئات ثقافية غربية، وبالتالي تحمل في بنيتها مرجعيات فكرية، ولغوية، وقيمية مغايرة لثقافتنا المحلية والدينية.

والمشكلة الأعمق تكمن في أن هذه الأدوات لا تفرض نفسها بالقوة، بل تُقدَّم في قالب جميل من التفاعل والذكاء والراحة التعليمية، مما يجعلها أكثر تأثيرًا وأقل قابلية للنقد. إنها أشبه بـ"التطبيع الهادئ مع النموذج الثقافي الآخر"، يحدث ببطء، وبدون وعي، في لحظات اللعب، أو التعلّم، أو البحث عن المعلومة.

 

ثانيًا: أبرز التحديات القائمة

  • خوارزميات التوصية وترويج المحتوى الغربي

تعمل خوارزميات التوصية في التطبيقات التعليمية والترفيهية على تحليل سلوك المستخدم وتقديم محتوى يشبه ما شاهده سابقًا. لكن هذا لا يعني التطوير الفردي فقط، بل يعزز القيم والمواضيع المتكررة في الثقافة الغربية مثل الحرية المطلقة، الفردانية المتطرفة، النسبية الأخلاقية، وتمييع الهوية. النتيجة: تدريجيًا، يتم حرف الطالب عن منظومته القيمية الأصلية دون معركة فكرية واضحة.

  • الاعتماد الكامل على أدوات خارجية بدون إشراف

غياب أدوات تعليمية عربية أو إسلامية متطورة في مجال الذكاء الاصطناعي، يضطر المدارس والجامعات إلى استيراد المنصات كما هي. وهذا يفتح الباب أمام تسرب مصطلحات، وسيناريوهات، وشخصيات تعليمية تحمل دلالات قد تكون خادشة للخصوصية الثقافية أو مضادة لها.

  • تهديد اللغة العربية والتقاليد المحلية

الذكاء الاصطناعي اللغوي يعتمد على قواعد ومعاجم مبرمجة غالبًا بالإنكليزية. وبالتالي، تضعف قدرة هذه الأنظمة على فهم اللغة العربية بروحها الثقافية، لا فقط بترجمتها. وهذا يُحدث انفصالًا تدريجيًا بين الطالب وهويته اللغوية، ويعمّق الفجوة مع تراثه الفكري والديني.

 

ثالثًا: حلول استراتيجية مقترحة

  • تعريب المنصات الذكية وتوطينها ثقافيًا

ليس المطلوب فقط ترجمة النصوص، بل توطين الخوارزميات نفسها، أي تدريب أنظمة الذكاء الاصطناعي على مجموعات بيانات عربية، نابعة من بيئتنا، ومستمدة من قيمنا، ومصمّمة لخدمة أهدافنا التربوية والثقافية.

  • إشراف تربوي على محتوى الذكاء الاصطناعي

يجب أن يكون هناك دور للمؤسسات التربوية والدينية في تقييم محتوى المنصات الذكية، ورقابة استباقية لما يُبث عبرها، تمامًا كما يُراجع المنهاج المدرسي التقليدي. نحتاج إلى "لجان تربوية رقمية" تواكب هذا الحقل المستجد.

  • الاستثمار في أدوات محلية للذكاء الاصطناعي

من الضروري أن تتبنى الجامعات والمؤسسات العربية مشاريع استراتيجية لبناء أدوات تعليمية قائمة على الذكاء الاصطناعي تُصمَّم من الصفر، وتُدار من قبل نُخَب تربوية وتقنية عربية. دون هذا الاستثمار، سنظل مستهلكين لهوية غيرنا، حتى ونحن نُعلِّم أبناءنا بلغتنا.

 

المحور الرابع: اقترحات تنفيذية

  1. إنشاء وحدة رصد وتحليل مجتمعي مدعومة بالذكاء الاصطناعي داخل مركز الأبحاث والدراسات التربوية بالشراكة مع الجامعات وبالتحديد جامعة المعارف والمؤسسات التربوية لمتابعة مؤشرات التفكك الاجتماعي، والعنف، والتنمّر، والانحرافات الرقمية.

  2. اعتماد أدوات تحليل البيانات الاجتماعية في المدارس والجامعات لرصد حالات العزلة والانطواء والعنف المبكر، من خلال تطبيقات مرخصة تراعي الخصوصية.
  3. ربط منصات التعليم الإلكتروني بمرشدين تربويين يتلقون إشعارات ذكية حين ترصد الأنظمة سلوكًا خطرًا أو تغيّرًا مفاجئًا في الأداء.
  4. تصميم ملفات شخصية رقمية ذكية (AI Student Profiles) لكل طالب، تُبنى على تحليل أدائه وسلوكه وتُستخدم في التوجيه الأكاديمي والنفسي.
  5. تحويل المناهج إلى مناهج قابلة للتكييف الفردي عبر تطبيقات تعليمية تعتمد الذكاء الاصطناعي في تحديد مستوى الطالب وتقدّم له مسارًا خاصًا.
  6. إعادة تدريب المعلمين على دورهم الجديد كـ "مرافقين تربويين" ضمن التربية الذكية، من خلال ورش عمل في التعليم التكيفي، والذكاء الاصطناعي التربوي.
  7. إطلاق مبادرة وطنية لـ"توطين الذكاء الاصطناعي التربوي تتضمن تعريب خوارزميات التعليم، وإنتاج محتوى عربي وإسلامي عالي الجودة للمنصات.
  8. تأسيس هيئة رقابة تربوية على المحتوى الرقمي الذكي تراجع أدوات التعليم المستوردة وتضمن انسجامها مع الهوية القيمية المحلية.
  9. إنشاء مختبرات ابتكار تربوي رقمي في الجامعات تُشرك طلاب الكليات الشرعية والتربوية والهندسية لتطوير أدوات AI تراعي القيم الثقافية.
  10. تبنّي أدوات كشف التنمر الذكي في المدارس، وإشراك المرشدين الاجتماعيين في تحليل بياناتها والتفاعل معها تربويًا.
  11. تصميم نظام تنبؤ بالتسرب المدرسي والانحراف السلوكي يُفعّل على مستوى إدارات التعليم الرسمية ويُربط بخطط تدخل سريعة.
  12. استخدام روبوتات محادثة ذكية(Chatbots)  للدعم النفسي الأولي داخل الجامعات، تكون مؤمّنة ومضبوطة أخلاقيًا.
  13. إطلاق مشروع تحليل الاتجاهات السلبية على وسائل التواصل المحلي بالشراكة بين وزارتي التربية والإعلام لتوجيه حملات توعية قائمة على بيانات دقيقة.
  14. تأسيس مركز أو قسم دراسات "الذكاء الاصطناعي والهوية" في الجامعات الإسلامية والإنسانية، يتابع هذه التحديات نظريًا وتطبيقيًا.
  15. وضع سياسات شاملة لتكامل الذكاء الاصطناعي في التربية والأمن المجتمعي تشمل معايير الخصوصية، التكيّف الثقافي، وأخلاقيات الاستخدام.
  16. تشجيع الأبحاث العليا (ماجستير ودكتوراه) في مجالات تقاطع الذكاء الاصطناعي مع التربية، القيم، والهوية ، ضمن حوافز وتمويل خاص.

 

المداخلة رقم 2: (د. قاسم دنش/ لبنان)

بدأ د. دنش كلامه من خلال ضرورة ضبط بعض المفاهيم المتعلقة بالذكاء الاصطناعي، حيث أنه خاصة بعد الحرب أصبح هناك الكثير من الكلام عن الذكاء الاصطناعي وكأنّه الوحش الكاسر الذي لا يُمكن أن يُقهَر.

قبل أن أطرح سؤال البداية أريد التأكيد بأن أعداءنا يأخذون كل البيانات التي تتعلق بنا، فهم يمتلكون التكنولوجيا ويتحكمون بها.

الآن سأطرح سؤالاً أنا كأستاذ أو كصاحب قرار في المجتمع هل يهمني من خلال تحليل بيانات طلابي أو بيانات الناس العاديين أن أعرف إن كانوا يحبون نوعًا معينًا من الأطعمة؟ أو ما هي هوايتهم المفضلة؟ أو طريقة نومهم؟ هل هكذا نوع من البيانات يمكن ان تفيدنا؟ 

الجواب على هذا السؤال سيظهر خلال العرض.

 

لا يجب أن نشتبه من خلال الذكاء الاصطناعي أننا متأخرين وبأن الغرب قد قام بثورة جديدة، نحن لا نتكلم عن الذكاء الاصطناعي كمفهوم بل كتعريف للذكاء الاصطناعي الذي هو موجود حاليًا، فهو نفسه الذي كان موجودًا في العام 1956 م منذ الحرب العالمية الثانية، ولكن السؤال لماذا الآن قد طفى هذا المفهوم؟

علينا أن نأخذ بعين الاعتبار بأن الأبحاث المدنية والأكاديمية الجامعية هناك فرق شاسع بالسنوات بينها وبين الأبحاث العلمية العسكرية، وطبعًا هذا يعود لطبيعة فروقات حجم الاستثمار المادي والأمني في كلا المجالين، فمثلاً: هناك طريقة كانت تستخدم في الحرب العالمية التانية لتشفير الدائرة، وحتى وصلت هذه الطريقة للجامعات كان ذلك في العام 1979 م، فالفرق كبير جدًا من الناحية الزمانية بين المجالين العسكري والأكاديمي.

 

من باب تعريفي لطلابي لتبيان محدودية الذكاء الاصطناعي، قمنا بتوثيق معلومات على تطبيق ذكاء اصطناعي حول عدد كبير من صور للكلاب والقطط بهدف تمييزها عن بعضها البعض، حيث أصبح هذا التطبيق وبناء لخبرته يقوم بتصنيف الصورة الجديدة إلى كلب أو قطة، ولكن في النهاية قمنا بعض صورة فطيرة محلاة عليه، فقام بتصنيفها على أنها كلب. إذا المحدودية تبدأ من الداتا بحدّ ذاتها، فنن بناء للداتا التي نقوم بتوثيقها نستطيع أن نتوقع مخرجاتنا.

 

الآن سنقوم بالإجابة عن سؤال لماذا الآن برز مفهوم وتطبيقات الذكاء الاصطناعي؟

إذا كان لدينا قنينة بلاستيك واحدة فارغة وأعطيتها لشخصٍ ما، فلن يكون لها أي قيمة، بينما إذا أعطيته مليون قنينة بلاستيكية فارغة أقله سيفكّر كيف يمكنني استغلال واستثمار هذه المليون قنينة الفارغة. ولهذا فالذكاء الاصطناعي ظهر اليوم لأنه هناك الملايين من البيانات البسيطة لدى كل إنسان، والتي مع بعضها البعض تُصبح لديها قيمة ومعنى يمكن استثماره من قبل الشركات والدول وغيرها من الجهات. فاليوم الفرد أصبح هو أهم مصدر للبيانات، وحتى من برامج بسيطة يُعرَض عليها مضمون بأغلبه سخيف كتطبيق TikTok، فالآن مع كل الأزمة الاقتصادية العالمية يعرض دونالد ترامب على الصين أننا مستعدون أن نوقف كل الحرب الاقتصادية بين بلدينا أميركا والصين شرط أن تعطونا هذا التطبيق (وكل الهدف من الحصول على هذا التطبيق هو السيطرة على بيانات المستخدمين وتحليلها والاستفادة منها). 

 

الآن سيتم الإجابة عن سؤال أنا كأستاذ أو كصاحب قرار في المجتمع هل يهمني من خلال تحليل بيانات طلابي أو بيانات الناس العاديين أن أعرف إن كانوا يحبون نوعًا معينًا من الأطعمة؟ أو ما هي هوايتهم المفضلة؟ أو طريقة نومهم؟ هل هكذا نوع من البيانات يمكن ان تفيدنا؟ 

الجواب على هذا السؤال:

ليس ما يهمّنا هو ما ينشره الفرد من بيانات شخصية عنه أو من خلال صوره وفيديوهاته...إلخ، فمثلاً في الدقيقة الواحدة على الإنترنت يتم نشر 42 مليون رسالة واتس آب.

فاليوم ليست الداتا الواحدة هي المهمة بحد ذاتها، بل ما يهم هو تجميع الداتا كلها مع بعضها البعض، وهذا ما يوصلنا للجزء الخطير والمهم وهو: تحليل مسلك الأفراد، وهو ما يوصلنا بدوره لتحليل المجتمع ومعرفة طريقة تفكيره وطريقة أخذه للقرارات المستقبلية. وخاصة عند التصرف من قبل الأفراد بطريقة نمطية مما يجعل قدرة خوارزميات الذكاء الاصطناعي أن تكون نتائجها دقيقة أكثر.

فمثلاً العدو الإسرائيلي يستهدف سيارات الرابيد البيضاء بناء لتحركها في منطقة الحافة من خلال سرعتها وطريقة ركنها وطريقة مسارها والمسلك الذي سلكته وغيرها من الأمور، بغض النظر عن تشخصيها للأشخاص الموجودين بداخلها إن كانوا مدنيين أو غير ذلك. فيقارن جيش الاحتلال الإسرائيلي هذه الداتا بالداتا القديمة الموجودة عنده، ويأخذ القرار السريع بناء على مساعدة خوارزميات الذكاء الاصطناعي.

ولهذا فهذا العدو اللاأخلاقي والذي يعتمد على الذكاء الاصطناعي الذي يتحرك بطريقة أوتوماتيكية دون أي إشراف بشري عليه، قد يأخذ قرارات خاطئة (مثلاً استهداف الجدة والأم وبناتها في منطقة عيناتا خلال حرب إسناد غزة من قبل المقاومة الإسلامية).

 

إذا عملنا رقمنة منذ بداية البشرية حتى العام 2022 م ضمنًا، فإن العام 2023 م لوحده أصبح فيه كمّ داتا أكثر من كل ما سبق، والسبب يعود لظهور عصر السوشيال ميديا، والمدن الذكية، والميتا وغيرها. وبالتالي بناءً على كل هذه الداتا أصبح أصحاب القرار يرون المشهد من فوق وبطريقة أوسع وأشمل، وبناء على هذا المشهد يقومون بالتحليل وباتخاذ القرارات التي تناسب مصالحهم.

فمثلاً شركة فايس بوك اشترت شركة انستغرام وكذلك شركة الواتس آب، وجعلت لكل فرد منا هوية عبارة عن رقم هاتفه الحقيقي بناء لربط حساباتنا على فايس بوك مع أرقام هواتفنا الخاصة على الواتس آب، وخلقت هذا التشبيك بالداتا بين هذه التطبيقات، فأصبحوا إضافةً لمعرفتهم حول اهتمامتنا وإعجاباتنا على الفايسبوك والإنستغرام، كشفوا عن اتصالاتنا ومدتها والكلمات المفتاحة التي نعتمدها...إلخ.

وبالتالي فبناءً على كل هذا الربط أصبحت هذه الشركات والدول التي تقف خلفها قادرة على تحليل مسلكنا نحن كأشخاص ضمن هذا المجتمع.

فاليوم عندما نتكلم عن خطر الذكاء الاصطناعي، فليس المقصود به خوارزميات الذكاء الاصطناعي، فهو علم قائم على التحليل المستنِد إلى داتا قديمة، ولكن الخطر هو تحليل مسلك وحركة المجتمعات بناء على كل هذه الداتا المجمّعة خاصة مع تطور القدرات الحاسوبية كمًّا ونوعًا وقدرةً على معالجة البيانات. وكلّما كانت لدى الذكاء الاصطناعي داتا أكثر كلما استطاع على توسيع التحليل والمقارنات والدقّة أكثر في النتائج التي تصدر عنه.

 

كخلاصة الذكاء الاصطناعي هو محاولة لتقليد الذكاء الإنساني المبني على داتا قديمة، فحتّى مرض التوحّد على سبيل المثال لا الحصر يمكن تشخصيه من خلال الذكاء الاصطناعي اعتمادًا على شكل الوجه، أي من خلال مقارنة الداتا الجديدة بالداتا القديمة المتعلقة بأشكال وجوه مرضى التوحّد.

وأخيرًا المطلوب لكي نكون علميين اليوم، أن لا نقول كلمة ذكاء اصطناعي بشكل عام، ولا نحصره فقط في تطبيق ChatGPT، بل علينا أن نكون موَجَّهين أكثر، فنقول لدينا ذكاء اصطناعي في موضوع تحليل النصوص، أو ذكاء اصطناعي في موضوع تحليل الصور وتحليل الفيديوهات، أو ذكاء اصطناعي في موضوع توقّع الأمراض لدى شخص معيّن،..إلخ.

آخر تحديث : 2025-05-19
مشاركه في:

تعليقات

اترك تعليقك هنا

  • shape
  • shape
  • shape
  • shape