إعلام القاهرة تناقش الأبعاد القانونية والأخلاقية للاستخدام المسؤول للذكاء الاصطناعي

تحت رعاية الدكتور محمد سامي عبد الصادق، رئيس جامعة القاهرة، والدكتورة وسام نصر، عميدة كلية الإعلام، نظمت وحدة الذكاء الاصطناعي بالكلية ندوة توعوية موسعة بعنوان “الأبعاد القانونية والأخلاقية للاستخدام المسؤول لتطبيقات الذكاء الاصطناعي”، وذلك بإشراف الدكتورة سارة فوزي، المدير الأكاديمي للوحدة، والدكتورة ندى عبدالله نائب مدير الوحدة.

وافتتحت الدكتورة وسام نصر، عميدة الكلية، فعاليات الندوة بكلمة ترحيبية أكدت خلالها على الأهمية البالغة لموضوع الندوة، مشيرة إلى أن إشكالية الإطار القانوني لاستخدامات الذكاء الاصطناعي تعد من القضايا الشائكة والمحورية، لا سيما في مجال الإعلام الرقمي.
وأوضحت عميدة إعلام القاهرة أن الندوة تسعى للإجابة على تساؤلات جوهرية تشغل بال الأوساط الأكاديمية والمهنية، ومن أبرزها: لمن تعود حقوق الملكية الفكرية للمؤلفات التي تنتجها الآلة؟ وكيف يمكن مواجهة المخاطر المتعلقة بإساءة الاستخدام أو التحيز الخوارزمي؟ مؤكدة على ضرورة الاستفادة من التجارب الدولية والأطر التنظيمية للحد من المخاطر التي قد تواجه المؤسسات الإعلامية.
من جانبها، أعربت الدكتورة سارة فوزي، مديرة وحدة الذكاء الاصطناعي، عن شكرها لرئاسة الجامعة وعمادة الكلية على الدعم اللامحدود الذي قُدم للوحدة منذ نشأتها، والذي تُوج بافتتاح معمل متخصص للذكاء الاصطناعي داخل الكلية؛ ليكون منارة بحثية وتدريبية تخدم الطلاب والباحثين وكافة منتسبي الكلية لتعزيز مهاراتهم في هذا المجال الحيوي.
وقد شهدت الندوة التوعوية حضور كبير من الطلاب وأعضاء هيئة التدريس والهيئة المعاونة بالكلية أبرزهم أ.د ماجي الحلواني عميد الكلية الأسبق، أ.د أمل دراز رئيس قسم الصحافة، أ.د بسنت مراد، أ.م.د نيرمين عجوة، د. داليا عثمان، د. أماني عزت، د. آية جمال، د. مروة صالح، د. هند الحسيني.
وشهدت الندوة مشاركة نخبة من المتخصصين، حيث تحدث الدكتور حسام لطفي، أستاذ القانون المدني بكلية الحقوق وأستاذ كرسي اليونسكو لحق المؤلف، مستعرضاً الجذور التاريخية للذكاء الاصطناعي وفكرة “تعلم الآلة” التي بدأت منذ القرن الماضي، مسلطاً الضوء على التحديات القانونية التي تواجه حقوق الملكية في عصر الرقمنة.
واستهل الدكتور حسام لطفي كلمته بطرح تساؤل جوهري حول ماهية “ذكاء الآلة”، مشيراً إلى أن الإجابة تكمن في كيفية تعريفنا للذكاء ذاته، وهي الفكرة التي بدأت ملامحها الأولى منذ عام 1951. وانطلق من هذا التمهيد التاريخي ليصل إلى “إشكالية العصر” في ظل تطور الذكاء الاصطناعي التوليدي، وما فرضه من تحديات على القوانين والاتفاقيات الدولية المنظمة لحقوق المؤلف.
وأوضح نقطة قانونية في غاية الأهمية تتعلق بالمصطلحات؛ حيث فرق بين “حق التأليف” (Authorship) الذي يظل لصيقاً بالشخص الطبيعي (المبدع البشري)، وبين “حق الملكية” (Ownership) الذي قد يعود لشخصية اعتبارية كدار النشر مثلاً. وأكد أن الذكاء الاصطناعي حين يظهر كأداة للتأليف، يثير تساؤلاً ملحاً حول أحقية من وضع المحتوى ومن أشرف على إخراجه.
وأشار إلى أننا نعيش طفرة انتقلت فيها الآلة من مجرد مخزن للمعلومات (خزني واسترجعي) إلى آلة قادرة على التفكير الافتراضي وتقديم تصورات وتحليلات معقدة، مثل كتابة مقالات تاريخية أو تحليل صراعات سياسية عبر تجميع واستخلاص المعلومات من مصادر متعددة دون إذن مسبق، وهو ما يضعنا أمام “ثقافة تراكمية” للذكاء الاصطناعي تتجاوز أحياناً الحقوق الفكرية للمصادر الأصلية.
وتطرق إلى الأزمة التي تواجهها الجامعات واللجان العلمية؛ حيث بات بإمكان طلاب دون المستوى المطلوب الحصول على درجات علمية رفيعة (ماجستير ودكتوراه) عبر أبحاث مولدة بالكامل بالذكاء الاصطناعي.
وأوضح أن هذا الخطر دفع المجلات واللجان العلمية لاعتماد برامج فحص متخصصة للتمييز بين المحتوى البشري والمحتوى الآلي، مما وضع اللجان العلمية أمام مسؤولية مضاعفة.
وحذر الدكتور لطفي من تطور تقنيات “بصمة الصوت” والوجوه البشرية المولدة آلياً في مجالات الإعلام والإعلان، حيث يمكن محاكاة أصوات عمالقة مثل “أم كلثوم” أو إنشاء “مجاميع” بشرية في المشاهد الإعلامية لا تختلف عن البشر الحقيقيين. ونبه إلى أن تكرار المعلومات الزائفة أو التسريبات بصوت الشخص وصورته يدفع الناس لتصديقها، مما يهدد الحقيقة ذاتها.
وعن الرؤية القانونية للمستقبل، صرح الدكتور حسام لطفي: “نحن كرجال قانون لسنا منزعجين، ولكننا في حالة ترقب حذر”، مشيرا إلى أن الجدل الحالي يدور حول ما إذا كان الذكاء الاصطناعي مجرد “أداة إبداع” (مثل القلم أو الحاسوب) أم أنه هو “الإبداع ذاته”. إذا اعتبرناه “أداة”، تظل الحماية للمستخدم البشري. إذا اعتبرناه “مبدعاً”، فإن ذلك قد يؤدي لتراجع الدور الإنساني وفتور روح الابتكار لدى البشر.
وأكد أن القانون يقف حالياً في موقف “المحايد” الذي يعتبر الذكاء الاصطناعي أداة، والمؤلف هو من استخدمها. واختتم كلمته بضرورة الحفاظ على مستقبل البشرية من خلال توظيف هذه التقنيات لخدمة الإنسان لا لاستبداله، محذراً من أن إساءة استخدام الذكاء الاصطناعي قد تؤدي إلى “إفساد في الأرض”، بينما يكمن النجاح الحقيقي في استخدامه لتعزيز قدرتنا على الإبداع مع الحفاظ على بصمتنا الإنسانية.
كما قدم المهندس أشرف صلاح الدين، مستشار التحول الرقمي وأمن المعلومات، عرضاً حول الأطر التشريعية المنظمة للذكاء الاصطناعي، مستعرضاً الجهود الوطنية والدولية الرامية لتقنين استخدامه بما يضمن التوازن بين الابتكار التقني والحماية القانونية والمعلوماتية. وقدم عرضاً شاملاً وتفصيلياً لمستقبل هذه التكنولوجيا وتأثيراتها العميقة على بنية المجتمع والدولة، مؤكدًا في مستهل كلمته أن الذكاء الاصطناعي قد غادر مربع “الأدوات التقنية” المساعدة، ليصبح “شريكاً فاعلاً” يتغلغل في عمليات صنع القرار وصناعة المحتوى بشكل لحظي.
وتوقف المهندس أشرف صلاح الدين طويلاً عند “المعضلة الأخلاقية” لإنتاج المحتوى، مشيراً إلى أن سهولة إنتاج مقالات كاملة، صور، أغانٍ، وفيديوهات مزيفة (Deepfake) في دقائق معدودة، يفرض علينا سؤالاً وجودياً: “هل كل ما تتيحه التكنولوجيا أخلاقياً يجب تنفيذه؟”. وحدد أربعة تحديات رئيسية في هذا الصدد: الشفافية: ضرورة إعلام المتلقي بهوية صانع المحتوى؛ فإخفاء دور الآلة يعد “خداعاً غير مباشر”.، التضليل الإعلامي: خطورة تقنيات التزييف العميق التي تنتج واقعاً موازياً يصعب تكذيبه، الملكية الفكرية: أزمة استغلال أعمال المبدعين لتغذية النماذج دون إذن أو تعويض عادل، تراجع الإبداع: خطر الاعتماد المفرط الذي قد يؤدي لتآكل الخيال البشري وتنوع التفكير.
وفي محور أمن المعلومات، وجه صلاح الدين تحذيراً شديد اللهجة للمستخدمين الذين يغذون الأدوات العامة بملفات عمل، عقود سرية، وبيانات عملاء، أو حتى معلومات شخصية دون وعي بمخاطرها، مشيرا إلى أن كبرى الشركات العالمية بدأت بالفعل في تقييد استخدام هذه الأدوات حمايةً لأسرارها، مؤكداً أن “من يفرط في بياناته اليوم سيدفع الثمن باهظاً في المستقبل”.
وطرح استراتيجية للمواجهة تشمل: مؤسسياً: وضع سياسات واضحة، تدريب الموظفين، واعتماد حلول ذكاء اصطناعي “محلية” وخاصة، فردياً: الامتناع عن إدخال المعلومات الحساسة، وقراءة سياسات الخصوصية بدقة، واستخدام الحسابات المؤسسية المؤمنة.
ووصف صلاح الدين المرحلة الحالية بـ”الاختبار التاريخي” للإعلام، حيث لم يعد التحدي في السبق الصحفي، بل في “التحقق الرقمي”، مشدداً على ضرورة الإفصاح الشفاف عن استخدام الذكاء الاصطناعي في المونتاج أو التحرير، لافتا إلى أن “الأمية القادمة” ليست أبجدية، بل هي “أمية التحقق الرقمي”. أما عن الجامعات، فقد أكد أنها يجب أن تقود التحول عبر تدريس الأخلاقيات لكل التخصصات، وتحديث طرق التقييم لمواجهة الأبحاث المولدة آلياً، مشيراً إلى الصراع التقني المستمر بين أدوات الكشف عن الذكاء الاصطناعي وأدوات “أنسنة” النصوص (AI Humanizer).
واستعرض المهندس أشرف صلاح الدين المسار المصري المتميز، مؤكداً أن مصر أول دولة عربية وأفريقية تلتزم بمبادئ منظمة التعاون الاقتصادي والتنمية (OECD) للذكاء الاصطناعي المسؤول، كاشفا عن ملامح “القانون المصري المقترح” الذي يستعد البرلمان لمناقشته، والذي يرتكز على: فلسفة تقييم المخاطر: تصنيف الأنظمة (عالية، متوسطة، منخفضة الخطورة)، حماية المجتمع: ضوابط صارمة لتقنيات التعرف على الوجه ومواجهة التزييف العميق، تنظيم سوق العمل: حماية حقوق العمال من مخاطر “الأتمتة”.، المجلس الوطني: الذي تم تطوير مسماه في يناير 2026 ليشمل “الحوسبة الكمية والتكنولوجيات البازغة”.
وأجاب صلاح الدين على سؤال: “من المسؤول عن نشر خبر كاذب ولده الذكاء الاصطناعي؟”، موضحا أنه رغم غياب تشريع نهائي يحدد المسؤولية بدقة بين المستخدم والشركة المطورة، إلا أن المسؤولية تقع حالياً على عاتق “الشخص الذي صاغ الأوامر التوجيهية (Prompt Engineer)”. كما استعرض نماذج مبهرة مثل نموذج “كرنك” المصري، وتطبيقات “القرين الرقمي” الذي يمكنه تمثيل الشخص في الاجتماعات، واستخدامات التقنية في الزراعة الذكية والرعاية الصحية، مع التشديد على ضرورة وجود ضوابط صارمة خاصة في كتابة التقارير الطبية والأشعة.
واختتم المهندس أشرف صلاح الدين كلمته بتقديم نماذج عملية للحضور حول سرعة ودقة الذكاء الاصطناعي في تصميم الإعلانات والفيديوهات، لكنه أردف قائلاً: “المستقبل لن يقوده من يملك أقوى خوارزمية فقط، بل من يملك القيم التي توجهها”، داعيا إلى تكامل الهيئات بين الإعلام والاتصالات وحاضنات الأعمال، مطالباً كل مبدع وصانع محتوى بالعمل وفق المبادئ التوجيهية الوطنية: “استخدم الذكاء الاصطناعي لتعزيز قدراتك، ولكن افعل ذلك بحكمة، عدالة، ومسؤولية.. والأهم، أخبر جمهورك أنك فعلت”.
وفي ختام الندوة تم عرض مشروعات طلابية مبتكرة اعتمدت على الذكاء الاصطناعي، أبرزها مشروع “علم ولا فنكوش” الذي استخدم تطبيقات الذكاء الاصطناعي والمحتوى التفاعلي. ثم فتح باب النقاش مع الحضور، ثم اختتمت الفعاليات بتكريم المتحدثين والتقاط الصور التذكارية.



