أخلاقيات الذكاء الاصطناعي ودور الشباب في تشكيل سياسات المستقبل

الرابط المختصر

أن وسائل تكنولوجيا الذكاء الاصطناعي يمكن ان تؤدي الى تفاقم الفجوات و الفروق  وأوجه التفاوت الموجودة في العالم في الوقت الحاضر داخل البلدان وفيما بينها و أنه يجب ترسيخ العدالة و الثقة و الانصاف لكي لا يترك أي بلد او أي أحد خلف الركب سواء أكان ذلك من خلال الانتفاع العادل بوسائل تكنولوجيا الذكاء الاصطناعي و التمتع بمنافعها أو من خلال الحماية من عواقبها السيئة مع التسليم باختلاف ظروف البلدان و احترام رغبة بعض الناس في عدم المشاركة في كل التطورات التكنلوجية هذا ما أقر به المؤتمر العام لمنظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) المنعقد في 2021

 

ولا بد أن يكون للشباب دورا أساسيا -كونهم أكثر المستخدمين والمستفيدين من هذه الثورة- رسم خارطة الطريق لتخفيف الأثر  او تجاوز هذه التحديات وأبرزها تفاوت العدالة بين الأجيال والدول وان لا تبقى حبيسة جدران نقاشات أكاديمية متخصصة، بسبب تأثيرها  المباشر على حياتنا اليومية وحقوقنا الأساسية كمستخدمين للذكاء الاصطناعي خاصة في المجتمعات والبلدان الأقل حظا كما هو الحال لدينا .

وهنا يبرز أهم التحديات في هذا المجال في عصر الذكاء الاصطناعي المتسارع، إلا وهو التحديات الأخلاقية المرتبطة بتطوير واستخدام تقنيات الذكاء الاصطناعي، إذ يشكل هذا التطور السريع في هذا المجال مصدر قلق كبير بشأن الخصوصية، التحيز، الشفافية، والمسؤولية.

ويرى الدكتور عمرو عكاشة، المتخصص في التطوير والقيادة وخبير في الذكاء الاصطناعي، أن أكثر ما يقلق في هذا المجال هو القدرة على المساءلة وهو ما يفتقر له كثير من الشباب المستخدمين لأدواته، موضحا " نحن نشارك الكثير من المعلومات مع أدوات الذكاء الاصطناعي ولا نعرف ما الذي يفعله القائمون عليها بهذه المعلومات"

سارة (22سنه) تشير إلى مشكلة "فقاعة الترشيح" على منصات التواصل الاجتماعي مثل فيسبوك، حيث تقول: "ألاحظ أنني كلما قضيت وقتًا أطول على فيسبوك، أجد نفسي أرى نفس النوع من المحتوى مرارًا وتكرارًا. يبدو أن الخوارزمية تعرض لي فقط المنشورات التي تتوافق مع آرائي السياسية والاجتماعية، مما يجعلني أقل عرضة لرؤية وجهات نظر مختلفة." هذه الظاهرة يمكن أن تؤدي إلى تعزيز الانقسامات الاجتماعية والسياسية من خلال عرض محتوى محدد يتوافق مع وجهات نظر المستخدمين، مما يعزز التحيزات الحالية ويقلل من فرصة التفاعل مع وجهات نظر متنوعة.

 

وهذا ما أشار إليه الدكتور عكاشة بقوله "التحيز يمثل مشكلة كبيرة، فالذكاء الاصطناعي قد يولد خوارزميات متحيزة، ونستشعر الأمر ببساطة عندما يظهر لنا فيديوهات مشابهة على يوتيوب بمجرد مشاهدة فيديو واحد " الامر الذي يسهم في تعزيز الفقاعات المعرفية والتحيز التأكيدي. وأضاف متسائلاً: "أما فيما يتعلق بالمسؤولية والمساءلة، إذا اتخذ الذكاء الاصطناعي قرارًا خاطئًا، من سيكون المسؤول عنه في ظل ما ذكرناه من عدم قدرة الشاب أو اليافع للمساءلة والمتابعة القانونية؟".

أحمد (29 سنة) في حديثه لنا يؤكد الرأي السابق بشأن نتائج البحث المخصصة على جوجل، قائلاً: "أحيانًا أشعر أن نتائج البحث في جوجل مخصصة بشكل مفرط. كلما بحثت عن موضوع معين، تظهر لي نفس المصادر والمواقع التي أزورها بشكل متكرر. هذا يجعلني أتساءل عما إذا كنت أحصل على صورة كاملة حول الموضوع." تخصيص نتائج البحث يمكن أن يكون مفيدًا في بعض الأحيان، لكنه أيضًا قد يقيد تنوع المعلومات التي يتعرض لها المستخدم، مما قد يؤدي إلى فهم محدود أو متحيز للمواضيع المختلفة.

وهذا ما أكده مخرجات  المؤتمر العام لمنظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو)  2021 الذي بين انه بالرغم من أن وسائل تكنولوجيا الذكاء الاصطناعي يمكن ان تعود بمنافع كبيرة على الشباب والبشرية بشكل عام بشكل متساوي إلا أنه يهدد هذه الإيجابية تحديات  أخلاقية أساسية أهمها التحيز التي يمكن ان تؤدي هذه الوسائل الي ترسيخها  و تفاقمها و التي يمكن ان تفضي الي التمييز و التفاوت و الفجوات الرقمية و الاستبعاد و تهديد التنوع الثقافي و الاجتماعي و البيولوجي و إيجاد فجوات و فوارق  اجتماعيه او اقتصاديه.

وهذا يؤكد  ضرورة الشفافية و إمكانية الفهم فيما يخص عملية تشغيل الخوارزميات و البيانات المستخدمة لتدريب وسائل تكنولوجيا الذكاء الاصطناعي لتجنب العواقب المحتملة لوسائل تكنولوجيا الذكاء الاصطناعي على كرامة الانسان و حقوق الإنسان و الحريات الأساسية  و على المساواة بين الجنسين و الديمقراطية و كذلك على العمليات الاجتماعية و الاقتصادية و السياسية و الثقافية و الممارسات العلمية و الهندسية و على الرفق بالحيوان و حمايه البيئة والنظم الإيكولوجية على سبيل المثال لا الحصر، وهي قضايا أصلا يعاني فيها الشباب وهنالك حاجة لتعزيز فرص العدالة والمساواة فيها وعلى المستوى التكنولوجي باتت أكثر إلحاحا.

 

ما تواجه أنظمة الذكاء الاصطناعي من اتهامات بالتحيز والتمييز العنصري من قبل المستخدمين، واقعية في كثير من الحالات وخاصة في البلدان والمجتمعات الفقيرة والنامية، إذ أنها تعتمد على بيانات قد تعكس الانحيازات المجتمعية، مثل الربط بين لون البشرة والمهنة، حيث أظهرت دراسات أن الذكاء الاصطناعي يميل لتوقع وترشيح الرجال البيض للعمل في وظائف قيادية بينما يرشح أصحاب البشرة السمراء للعمل في وظائف أقل شأناً. كما ان هذه الاتهامات دفعت بجوجل الى إيقاف خاصية توليد الصور في تطبيقها "Gemini" بعد ظهور تحيزات غير واقعية تجاه الأقليات العرقية ولتجنب هذه المشكلات، ينبغي على الشركات جمع بيانات متنوعة، وتحليل النتائج بانتظام، والتزام الشفافية

اما فيما يتعلق بمحاولة بعض الشركات المتخصصة بالتكنولوجيا المعلومات عامة و تكنولوجيا الذكاء الاصطناعي خاصه القيام بدورها وتحمل مسؤوليتها المجتمعية أنشأ الباحثون والمصممون في Google أداة What-If كمورد عملي لمطوري أنظمة التعلم الآلي، تهدف للإجابة على أحد أصعب الأسئلة في الذكاء الاصطناعي: "ما هو الإنصاف الذي يريده المستخدمون؟". هذه الأداة التفاعلية مفتوحة المصدر، جزء من أدوات Tensor Board، تتيح للمستخدمين التحقيق في نماذج التعلم الآلي بصريًا. يمكن لأداة What-If تحليل مجموعات البيانات لفهم كيفية عمل نماذج التعلم الآلي تحت سيناريوهات مختلفة، وتوفير تصورات لشرح أداء النموذج. كما تسمح بتعديل عينات من البيانات ودراسة تأثير هذه التغييرات على النموذج. من خلال تحليل الإنصاف الخوارزمي، يمكن الكشف عن أنماط التحيز غير المرئية سابقًا. تتيح الأداة لجميع المستخدمين، حتى غير المبرمجين، استكشاف واختبار نماذج التعلم الآلي ومعالجة مشكلاتها بواجهة مستخدم رسومية بسيطة

و في سياق الحديث عن الشركات يشاركنا محمد (32سنه) تجربته التي قد تبدو مألوفة بالنسبة لنا  اذ يعبر عن ضيقه من الإعلانات المستهدفة التي تظهر له على الإنترنت، قائلاً: "أجد أن الإعلانات التي تظهر لي على الإنترنت موجهة بشكل مفرط. دائمًا ما تكون متعلقة بنفس المنتجات والخدمات التي بحثت عنها أو تفاعلت معها سابقًا. أشعر أن هذا يحصرني في نفس الخيارات ولا يتيح لي فرصة اكتشاف أشياء جديدة." الاستهداف الإعلاني يمكن أن يكون فعّالًا للشركات، لكنه قد يشعر المستخدمين بأنهم محاصرون داخل دائرة محددة من المنتجات والخدمات.

 

وهنا تبرز  أهمية دور الشباب في تشكيل سياسات المستقبل و صياغة السياسات والتشريعات المتعلقة بتطوير واستخدام الذكاء الاصطناعي كون الشباب هم الجيل الذي سيعيش مع نتائج هذه السياسات لفترة أطول، ويملكون وجهات نظر جديدة وإبداعية حول التكنولوجيا، بحسب الدكتور عمرو عكاشة الذي أشار إلى  أن "الشباب يمكنهم المشاركة في صياغة السياسات من خلال الانخراط في الحوارات المجتمعية والمنتديات العلمية حول الذكاء الاصطناعي وأخلاقياته". وأوضح قائلاً: "يمكن أيضًا للشباب المشاركة في الأبحاث والدراسات التي تركز على تأثيرات الذكاء الاصطناعي، والمساهمة في المبادرات التعليمية والتوعوية".

وأضاف عكاشة "ان تعليم الشباب عن الذكاء الاصطناعي وأخلاقياته يمكن أن يخلق جيلًا واعيًا ومدركًا لتحديات هذه التقنية وفرصها. يمكن أن يشمل التعليم مناهج دراسية متكاملة وبرامج تدريبية وورش عمل تركز على أخلاقيات الذكاء الاصطناعي وتأثيراته الاجتماعية.

 

لذلك يتزايد الاهتمام بإدماج الأخلاقيات في المناهج التعليمية بشكل ملحوظ. على سبيل المثال، لم تعد البرامج التعليمية المتقدمة في جامعة ستانفورد ومعهد ماساتشوستس للتكنولوجيا (MIT) تقتصر على الجوانب التقنية للذكاء الاصطناعي فقط، بل توسعت لتشمل الجوانب الأخلاقية والاجتماعية أيضًا. هذا التوجه يعني أن الطلاب الذين يتعلمون تطوير الذكاء الاصطناعي يكتسبون معرفة تقنية عميقة بالإضافة إلى فهمهم للتحديات الأخلاقية المرتبطة بهذه التكنولوجيا. فهم يتعلمون كيفية التعامل مع هذه التحديات بشكل مسؤول وفعال، مما يؤهلهم ليكونوا خبراء تقنيين وأصحاب رؤية مستقبلية في الوقت ذاته

 

وهذا يتوافق مع التوصيات التي إدراجها منتدى الاستراتيجيات الأردني في ورقة سياسات أصدرها في وقت سابق من هذا العام بعنوان (التكنولوجيا والذكاء الاصطناعي: فرصة الأردن لتعزيز الإنتاجية) حيث دعا المنتدى إلى ضرورة إطلاق حملات توعوية وورش عمل تدريبية حول مفاهيم الذكاء الاصطناعي، وكذلك أهمية تبني الضوابط الأخلاقية والقانونية والأمنية التي تحكم التعامل معه.

واكد المنتدى الى أهمية البدء في إدماج أدوات الذكاء الاصطناعي في المراحل التعليمية الأساسية والثانوية والجامعية، بهدف تقديم مخرجات تعليم ذات مهارات جيدة ووعي عالي يحقق التوازن بين مهارات تكنلوجيا الذكاء الاصطناعي وضوابطه الأخلاقية والقانونية

 

وفي ذات السياق أجاب الدكتور عكاشة عن سؤالنا له حول الإجراءات التي يمكن اتخاذها لضمان أن تكون تقنيات الذكاء الاصطناعي متاحة ومنصفة للجميع بأنه لتأمين الوصول العادل لتقنيات الذكاء الاصطناعي، يجب وضع سياسات تضمن توزيع الموارد التكنولوجية والتعليمية بشكل متساوٍ. يمكن أيضًا تنفيذ برامج تدريبية وتعليمية تشمل كل الفئات المجتمعية، وتطوير حلول تكنولوجية تلبي احتياجات الفئات المهمشة. وأكد الدكتور عكاشة على "ضرورة تعزيز التعاون الدولي لضمان انتقال التكنولوجيا والمعرفة بشكل منصف".

ومن جهة أخرى أكد بأنه لضمان الخصوصية وحماية البيانات، يجب تطبيق تقنيات التشفير وضمانات أمنية قوية في جميع مراحل جمع ومعالجة البيانات. يجب أيضًا أن تكون هناك سياسات وقوانين تحدد بوضوح كيفية استخدام البيانات الشخصية، وتوفير الشفافية حول كيفية جمع واستخدام البيانات.

حيث ان جمع البيانات الضخمة لتدريب الذكاء الاصطناعي يتطلب مصادر مفتوحة ومحمية بحقوق الملكية، مما يثير قضايا قانونية وأخلاقية.

 

أضاف الدكتور عكاشة أن القوانين الحالية غير كافية، مؤكدًا: "يجب تطوير تشريعات جديدة تهدف إلى معالجة القضايا مثل التحيز، الشفافية، الخصوصية، والمساءلة، والتأكد من أن تكون هذه القوانين مرنة وقادرة على التكيف مع التغيرات المستقبلية". مشيرا الى انه يمكن لأنظمة الذكاء الاصطناعي أن تعزز او قد تزيد الفجوات والفوارق بين المجتمعات وداخلها إذا لم يتم التعامل معها بعناية.

 

في النهاية، يصبح من الواضح أن تقنيات الذكاء الاصطناعي تقدم فرصًا هائلة للبشرية، ولكنها تأتي أيضًا مع تحديات أخلاقية كبيرة. يجب علينا جميعًا، وخاصة الشباب، أن نكون جزءًا من الحل من خلال المشاركة الفعالة في صياغة سياسات تضمن الاستخدام العادل والمسؤول لهذه التقنيات. فقط من خلال الالتزام بالعدالة والشفافية والمسؤولية، يمكننا ضمان أن يستفيد الجميع من فوائد الذكاء الاصطناعي وأن نحمي حقوق الإنسان والكرامة في هذا العصر الرقمي المتسارع.