أثار مخاوف.. الذكاء الاصطناعي بات يحاكي السلوكيات البشرية
نشر موقع "ساينس آلرت" الأمريكي مقال رأي للأستاذة المساعدة في قانون القطاع الصحي في جامعة سانت لويس الأمريكية، آنا سانتوس روتشمان، تطرقت من خلاله إلى تنامي قدرات خوارزميات الذكاء الاصطناعي بشكل لا يصدق في العقود الأخيرة، لتصبح قادرة على تأليف المقطوعات الموسيقية والقيام بأمور إبداعية لطالما كانت حكرا على بني البشر. ويبدو أن تطور هذه الخوارزميات بات منذرا بقدرتها على القيام بما يتجاوز مجرد قراءة النوتات.
وقالت روتشمان، في مقالها إن دراسة أجرتها أثبتت المخاطر الأخلاقية للذكاء الاصطناعي. ويمكن القول إن قدرة الخوارزميات المتطورة لأحد برامج غوغل على دمج الدرجات الموسيقية مع موسيقى يوهان سيباستيان باخ لإنشاء مقطوعات موسيقية تبعث على الشعور بالخوف إزاء ما يمكنها فعله في المستقبل.
وأشارت الكاتبة إلى تمكّن الحاسوب من محاكاة بعض القدرات الإبداعية لبشرٍ حقيقيين تعتبر أمرًا مُربكا ومثيرا للريبة بشكل خاص.
الجدير بالذكر أن غوغل أنشأت برنامجها الموسيقي من خلال تحليل 306 مقاطع للمؤلف الموسيقي الألماني سيباستيان باخ وتتبّع النمط الذي سار عليه وجعله متناغمًا مع الملاحظات والادخالات الخاصة بالمستخدمين.
وذكرت روتشمان أن تطبيق "باخ" يعتبر جديدًا، لكن التكنولوجيا التي قادت إلى التوصل إليه موجودة منذ فترة طويلة، وهي تتمثل في الخوارزميات المدربة على التعرف على الأنماط واتخاذ القرارات بعد النظر في مجموعة من الاحتمالات.
ويكون بعض هذه الخوارزميات معقدًا بشكل يجعل معظم الناس عاجزين عن تبين سبب اتخاذها لقرار معين.
في المقابل، لا يمكننا القول إن خوارزميات الذكاء الاصطناعي دقيقة، حيث يعتمد الكثير منها على بيانات لا تمثل جميع فئات المجتمع، ما يجعلها خاضعة للتحيزات البشرية.
وليس من الواضح من قد يتحمل المسؤولية عندما يرتكب الذكاء الاصطناعي خطأ ما أو يتسبب في مشكلة معينة. ولا يزال هناك شوط كبير لتقطعه هذه التقنيات حتى تمسي قادرة على الكتابة بأسلوب بشري بارع أو التحدث مثل الإنسان أو تقليد تعابير وجهه.
وعلى سبيل المثال، أصدر مطورو برنامج "لاير بيرد" لمحاكاة الصوت محادثة وهمية بين باراك أوباما ودونالد ترامب وهيلاري كلينتون، والتي بدت حقيقية للغاية.
ومن جهتها، طورت شركة "أوبن آي إي" برنامجًا قادرا على الكتابة بطريقة شبيهة بالبشر بعض الشيء. ونظرا لكون النص واقعيا للغاية، اختارت الشركة عدم عرضه على العموم.
وأفادت الكاتبة أن الذكاء الاصطناعي يسمح بإنشاء مقاطع فيديو وصور احترافية للغاية، حيث سبق للممثل والمخرج السينمائي، جوردان بيل، إنشاء مقطع فيديو يظهر خلاله الرئيس الأمريكي السابق باراك أوباما وهو بصدد قول أشياء لم يقلها أبدًا، وهو ما يطرح العديد من التساؤلات حول المخاطر التي تشكلها هذه التقنيات.
وفي مطلع سنة 2019، انتشرت العديد من الصور التي تظهر السياسية الأمريكية ألكساندريا أوكاسيوـكورتيز وهي عارية، ليظهر بعد ذلك أنها مزيفة وتهدف إلى الإطاحة بها في الانتخابات. من جهتها، بدأت وكالات الأنباء العالمية مثل رويترز بتدريب صحافييها على رصد وتمييز هذه المعلومات المزيفة والخاطئة.
وذكرت روتشمان أن ما يثير القلق حقا هو عدم قدرة المستخدمين على تعلم الخدع التي يمكن للذكاء الاصطناعي القيام بها، لا سيما وأن هذه القدرات تنمو بوتيرة سريعة وتصبح أكثر تطورا وتعقيدا يوما بعد يوم. وكمثال على هذا التطور، تمكّنت بعض برامج الذكاء الاصطناعي من إنشاء وجوه وبصمات مزيفة للعبث بسجلات الشركات والمستندات الحكومية في بعض الأحيان.
وفي الوقت الحالي، تقترف هذه الخوارزميات أخطاء كفيلة بتمكيننا من التفطن إليها فور التمعن فيها، حيث سبق لبرمجية "باخ" لدمج الموسيقى اقتراف بعض الأخطاء التي يمكن لأي خبير موسيقي اكتشافها وتحديدها.
وعلى سبيل المثال، تسمح هذه البرمجية بإدخال فواصل موسيقية كان باخ نفسه يتجنبها، مما يدحض وجه الشبه بين المقطوعة الجديدة ومقطوعات المؤلف الألماني.
وأضافت روتشمان أن برمجية غوغل خرقت القواعد الموسيقية على مستوى تنسيق الألحان، ناهيك عن كتابة برنامج "أوبن آي إي" لتوليد النصوص عبارة "الحرائق التي تنشب تحت الماء"، والتي لا يمكن تبين معنى واضح لها. وخلال عمل المطورين على إبداعاتهم، ستصبح الأخطاء أكثر ندرة ما دامت خوارزميات الذكاء الاصطناعي آخذة في التطور والتعلم باستمرار.
وأفادت الكاتبة أن تحسن تقنيات التعلم الآلي ستكون ذات فائدة كبرى، بما في ذلك توفير رعاية صحية أفضل وجعل مهنة الطب أكثر ديمقراطية.
في المقابل، لا يمكن لنا نكران حقيقة أن منح الباحثين حرية تطوير هذه الخوارزميات يعني الانفتاح على مخاطر تطوير طرق أكثر تقدمًا لخلق الخداع والمشاكل الاجتماعية الأخرى.
وخلصت الكاتبة إلى أن الحد من أبحاث الذكاء الاصطناعي قادر على كبح هذا التقدم نحو مستقبل مجهول، حيث أن السماح للتكنولوجيات الذكية بالنمو والتطور دون رقابة ينطوي على حدوث حالات سوء استخدام تتجاوز مجرد مقطوعة موسيقية سيئة، حيث يمكن لمداها أن يشمل خداع الملايين من الأشخاص.