المستقبل المبهم لـ "الذكاء الاصطناعي" بين المخاطر والتحديات
الجراح: يجب التعامل مع "الذكاء الاصطناعي" بـ حذر شديد
البطش: قد يؤدي إلى بطالة جماعية
الأنباط- سبأ السكر
تساؤلات عديدة حول مستقبل الذكاء الاصطناعي ومخاطره، التي من الممكن أن يزداد الاعتماد عليه فيما بعد، ووجود سيناريوهات مستقبلية محتملة الحدوث باستخدام أنظمته والتحديات التي ستواجه البشر في ظل معالم غير واضحه للآن.
قال الباحث والأستاذ في التنقيب عن البيانات الكبيرة والذكاء الاصطناعي في الجامعة الأردنية الأستاذ الدكتور ابراهيم الجراح أن الهدف من الذكاء الاصطناعي بوجه الخصوص ومن وجوده يجب ان يكون هدفه إنساني يرتقي بحياة الناس ويعود بالفائدة عليهم، وان يكون حلا لمشكلاتهم لا ان يزيد منها، إلا ان الخطورة تكمن به في حالة إذا كان المطورون او المستخدمون له يتلاعبون بنتائجه ويوجهونه بطريقة خاطئة، ما يؤدي الى نتائج مضره على المجتمع.
وبين، انه من الممكن أيضا ان تكون بعض الأخطار للذكاء الاصطناعي فقدان بعض فرص العمل التي من الممكن ان يحل محلها الذكاء الاصطناعي وخصوصا الوظائف التقليدية وأيضا من جانب اخر استحداث وظائف بعدد هائل جدا تتطلب مهارات غير تقليدية وذكية، تتوائم مع الثورة الصناعية الرابعة، حيث تتطلب الحصول على هذه المهارات من قبل العاملين في الوظائف التقليدية والتي من الممكن ان تسبب تحديا لهم.
وتابع الجراح، أن هذه الوظائف لها مردود مالي أفضل من الوظائف التقليدية، مشيرًا إلى أن الخطورة تكمن في أن يصبح الاعتماد كبيرًا على الذكاء الاصطناعي في بعض الأمور التي يتم القيام بها بشكل تقليدي ويمكن أن تؤثر على المستخدمين لهذه التكنولوجيا من عدة جوانب، كالجانب الصحي على الإنسان أو ظهور بعض المشاكل المجتمعية التي لم تكن موجودة في السابق، مضيفًا أيضا من الممكن ان يكون له أثر كبير على العلاقات الاجتماعية والتواصل بين البشر.
وبين ، أن أحد مخاطر الذكاء الاصطناعي، هي طريقة استخدام بعض الأشخاص الذين لديهم توجهات غير صحيحة، على سبيل المثال: استخدام الذكاء الاصطناعي في الاختراقات (Hacking ) للوصول للمعلومات الشخصية والمعلومات الأمنية، واستخدامها لأغراض سلبية لا تصب بمصلحة البشرية، مضيفًا أنه يجب التوجه في التركيز في الوقت القادم على كيفية تطوير الذكاء الاصطناعي لكي يكونا مسؤولا " Responsible" وخصوصا المستخدم في اتخاذ القرارات بشكل آلي، لأن هناك تسألا كبيرا من سوف يتحمل المسؤولية في حال حدوث أي خطاء لهذه الانظمة، لذلك يجب ان تتظافر الجهود وان ان يكون هناك توجه حقيقي بأن يكون لدينا نظام ذكاء اصطناعي مسؤول أو موثوق بشكل كبير "Trusted"، وان يكون هناك فهم ووعي كامل بطريقة بناءة بعيدًا عن التحيز وأن تكون البيانات التي يتم استخدامها في التدريب غير متحيزة، بحيث تكون النتائج في حيادية ولا تتحيز لجهة معينة، لأن القرارات الآلية التي تنتج قد تسبب بعض كثير من المشاكل غير المتوقعة.
وأوضح الجراح أنه من المهم جدا أن يتم التعامل مع هذه الأخطار وتحديدها بالضبط، وايجاد الحلول لها، مثلا أن تكون الأنظمة التي تبنى على الذكاء الاصطناعي مفهومة وقابلة للتفسير بحيث نستطيع رؤية الطريقة التي تم التعامل بها مع البيانات وكيفية تحليل هذه البيانات؛ وكيف تم الوصول للنتائج النهائية الصادرة من هذه الأنظمة، بحيث تكون قابلة للفهم ومتوقعة إلى حد ما، وبهذه الطريقة نستطيع الى الوصول إلى مرحلة يكون الذكاء الاصطناعي مسؤولا وامنا إلى درجة كبيرة.
وتابع ، علاوة على ذلك يجب وضع خطط علمية ومدروسة لكيفية التعامل مع الأخطاء التي تنتج من هذه الانظمة، وهذا يقودنا الى ايجاد التعليمات والقوانين التي يمكنها التكييف والتعامل مع أنظمة الذكاء الاصطناعي وكذلك إيجاد مواثيق أخلاقية خاصة للتعامل مع هذه الأنظمة.
وأشار الجراح إلى ان استخدام الذكاء الاصطناعي يجب ان يكون بحذر، بحيث يتم ايجاد طرق توعية لجميع المجتمع بهذا الخصوص، والتنويه الى كيفية التعامل مع الأنظمة والبرامج التي تبنى على الذكاء الاصطناعي، مضيفًا أنه من الضرورة بمكان ان يجب توفير برامج تدريب وتأهيل مكثفة للمؤسسات العامة والأفراد كافة لكي يكونوا قادرين على التفاعل مع أنظمة الذكاء الاصطناعي، مشددًا على نقطة انتاج واكتساب المعارف وذلك بشكل مستمر وتوجيه البحث العلمي بأشكاله في مجال الذكاء الصناعي؛ وذلك لتحديد إذا كان هناك تحديات مستقبلية، وإيجاد طرق للتغلب على هذه التحديات. وبين، أن هناك الكثير من الفرص والايجابيات الكبيرة للذكاء الاصطناعي، لكن لا يختلف الحال عن أي تكنولوجيا جديدة والتي يمكن أن يكون لها بعض السلبيات والتي من الممكن التعامل معها، ووضع خطط لها للوصول إلى ذكاء اصطناعي مسؤول ويُدار بطريقة مبنية على تشريعات وقوانين وأخلاقيات واضحة.
أشار الاستشاري في الذكاء الاصطناعي هاني البطش إلى أن مستقبل الذكاء الاصطناعي (AI) غير معروف، كما أنه مجال سريع التطور وله القدرة على إحداث ثورة في العديد من جوانب حياتنا، ولكن هناك أيضًا العديد من المخاطر المحتملة المرتبطة بالذكاء الاصطناعي، مثل الاستغناء عن الوظائف والمراقبة الجماعية وحتى التهديدات الوجودية للبشرية، مبينًا أنه من الصعب الجزم بما يحمله مستقبل الذكاء الاصطناعي.
وتابع، ببعض من السيناريوهات المستقبلية المحتملة التي يمكن أن تحدث كالمجتمع المدينة الفاضلة، الذي يُحتمل ان يستخدم الذكاء الاصطناعي لحل بعض أكثر مشاكل العالم إلحاحًا، مثل: الفقر والجوع والمرض والتلوث والاحتباس الحراري، مضيفًا أنه يمكن استخدام الذكاء الاصطناعي لإنشاء مجتمع أكثر كفاءة واستدامة، أو في سيناريو مجتمع الديستوبيا (المدينة الفاسدة)، الذي يتم استخدام الذكاء الاصطناعي فيه لأغراض خبيثة، مثل: الحرب والمراقبة الجماعية والرقابة الاجتماعية والذي يستطيع من خلالها الذكاء الاصطناعي تطوير آلات فائقة الذكاء مُرجّح أن تشكل تهديدًا وجوديًا للبشرية.
وأكمل البطش أن في سيناريو تعايش الذكاء الاصطناعي مع البشر في علاقة متبادلة المنفعة، يعمل الذكاء الاصطناعي والبشر معًا لخلق مستقبل أفضل للجميع ويمكن استخدامه لزيادة الذكاء والإبداع البشري، بينما بإمكان البشر تزويد الذكاء الاصطناعي بالإرشادات الأخلاقية التي يحتاجها لتجنب ارتكاب الأخطاء الضارة.
وأوضح أن أحد أكبر مخاطر الذكاء الاصطناعي، هو أنه قد يؤدي إلى بطالة جماعية باستخدام الذكاء الاصطناعي بالفعل لأتمتة العديد من الوظائف، وسيستمر هذا الاتجاه فقط. عندما يصبح الذكاء الاصطناعي أكثر تعقيدًا، سيكون قادرًا على أتمتة المزيد من الوظائف، ما قد يؤدي إلى انتشار البطالة، مبينًا أنه يمكن أن يكون لهذا تأثير مدمر على الاقتصاد والمجتمع، وأن الخطر الآخرهو أنه يسَهْل استخدامه في المراقبة الجماعية ومُحْتَمَل استخدام أنظمة المراقبة التي تعمل بالذكاء الاصطناعي لتتبع تحركاتنا ومراقبة اتصالاتنا وحتى توقع سلوكنا، الأمر الذي قد يكون لهذا تأثير مخيف على حريتنا وخصوصيتنا.
وتابع البطش، أنه من المُرجّح أن يصبح الذكاء الاصطناعي ذكيًا لدرجة أنه يتجاوز الذكاء البشري الذي يُعرف بسيناريو "الذكاء الخارق"، وهو أحد أكثر النتائج المحتملة للخوف من تطوير الذكاء الاصطناعي، إذا قررت الآلات فائقة الذكاء أن البشر يشكلون تهديدًا لوجودهم، فيمكنهم القضاء علينا بسهولة.
وبين أنه في عملية تحديد وتقييم وإدارة المخاطر المرتبطة بالذكاء الاصطناعي (AI) يمكن أن تكون الأنظمة متحيزة ما قد يؤدي إلى نتائج غير عادلة أو تمييزية، على سبيل المثال، يُحتمل أن يكون نظام الذكاء الاصطناعي المستخدم في اتخاذ قرارات التوظيف متحيزًا ضد مجموعات معينة من الأشخاص، أو بالإمكان أن تكون أنظمة الذكاء الاصطناعي عرضة للهجمات الإلكترونية ما يؤدي إلى اختراق البيانات أو حتى التلاعب بأنظمة الذكاء الاصطناعي، مضيفًا أنه بالإبمكان أن ترتكب أنظمته أخطاء قد تؤدي إلى أضرار جسدية أو خسائر مالية، على سبيل المثال من المُحتمل أن ترتكب السيارة ذاتية القيادة التي تعمل بالذكاء الاصطناعي خطأً وتحطمًا، ويمكن لأنظمة الذكاء الاصطناعي جمع وتخزين كميات كبيرة من البيانات، والتي من المُرجّح استخدامها لتتبع تحركات الأشخاص أو مراقبة نشاطهم عبر الإنترنت.
وأكد البطش أنه من المهم توخي الحذر عند استخدام الذكاء الاصطناعي، وأن يكون الفرد على دراية في مخاطرها، كما يجب أن يتخذ خطوات للتخفيف منها عند استخدام الذكاء الاصطناعي وعلى دراية بالتحيزات المحتملة في أنظمته، مبينًا أنه يتم تدريب أنظمة الذكاء الاصطناعي على البيانات، إذا كانت البيانات متحيزة، فسيكون نظام الذكاء الاصطناعي متحيزًا، إذا أنه من المهم أن تكون على دراية بهذا وأن تتخذ خطوات للتخفيف من التحيز، مثل استخدام مجموعة بيانات متنوعة لتدريب نظام الذكاء الاصطناعي. ونصح بأن يقوم الفرد بتأمين أنظمة الذكاء الاصطناعي الخاصة به التي يمكن أن تكون أنظمته اعرضة للهجمات الإلكترونية، لذلك من المهم تأمينها بشكل صحيح، باستخدام كلمات مرور قوية وتشفير البيانات ومراقبة الأنشطة المشبوهة.
وأوضح أهمية اختبار أنظمة الذكاء الاصطناعي بدقة قبل استخدامها في الإنتاج الذي سيساعد في تحديد وإصلاح أي أخطاء قد تؤدي إلى حدوث مشكلات، واستخدم أنظمة الذكاء الاصطناعي بشكل وأخلاقي وهذا يعني استخدامها للأبد وتجنب استخدامها لأغراض ضارة، مؤكدًا أن مستقبل الذكاء الاصطناعي غير واضح المعالم، لكن من المهم البدء في التفكير في المخاطر والفوائد المحتملة لهذه التكنولوجيا الآن، كما أن الأمر متروك لنا لتشكيله بطريقة إيجابية وبحاجة إلى تطوير مبادئ توجيهية أخلاقية لتطوير واستخدام الذكاء الاصطناعي، بينما نحتاج أيضًا إلى التأكد من أنه يستخدم للخير وليس للشر.