نبض البلد - د.مؤيد عمر
مع التسارع الهائل في انتاج نماذج مختلفه من الذكاء الاصطناعي، والتنافس بين الدول بإنفاق المليارات في تطوير انظمة ذكية قادرة على محاكاة العقل البشري، نكتشف أن هذه الأنظمة تتعلم منا ليس فقط ذكائنا بل ويمكن ان تتعلم غبائنا، إنها ظاهرة مثيرة للقلق خاصة بالمجتمعات التي تعاني اصلاً من انتشار معلومات تحتوي مشاكل اخلاقية،معلومات مغلوطه، وانتشار معلومات عنصرية، وتفشي الخرافه ونظريات المؤامرة.
المشكلة الأساسية تكمن هنا في ان بعض نماذج الذكاء الاصطناعي تتعلم منا - من بياناتنا، من تفاعلاتنا، ومن محتوانا ومن افكارنا. وهي لا تملك القدرة على التمييز بين الحكمة والجهل بين الحقيقة والخرافة، بين الحقائق العلمية ونظريات المؤامرة، بين التسامح والتعصب، لانها تتغذى على ببيانات غير مرشحة من وسائل التواصل الاجتماعي والمنتديات المفتوحة والمصادر غير العلمية، وكلما زادت المعلومات المغلوطه في المجتمع زادت مخرجات نماذج الذكاء الاصطناعي المغلوطه بمعنى اننا هنا نخلق انظمة ذكية تحمل كل تناقضاتنا وعيوبنا وتعيد لنا انتاج غبائنا.
افضل مثال هو عندما اطلقت شركة مايكروسوفت لنظام الروبوت "تاي" والذي برمج على ان يتعلم من البشر طريقة تفكيرهم ويعيد انتاج افكارهم، هنا تحول الروبوت في غضون "24" ساعة فقط من طفل رقمي بريء إلى كيان عنصري متطرف، لمجرد أنه تفاعل مع مستخدمي تويتر وتعلم منهم، هذه ليست مجرد حادثة معزولة، بل نموذج مصغر لما يمكن أن يحدث عندما نترك الذكاء الاصطناعي يتعلم من أسوأ ما فينا دون رقابة أو توجيه.
لم تقتصر مشكلات تحيز الذكاء الاصطناعي على تجربة "تاي" فقط، بل ظهرت حالات متعددة في مجالات مختلفة تبرز مدى هشاشة هذه الأنظمة أمام تحيزات البيانات البشرية. على سبيل المثال، في عام 2018، كشفت شركة أمازون عن خوارزمية توظيف تعتمد على الذكاء الاصطناعي كانت تميل إلى تفضيل المتقدمين من الرجال على النساء. هذا التحيز نبع من كون النظام تدرب على بيانات سابقة تميل إلى توظيف الرجال أكثر، مما أدى إلى تقليل فرص النساء بشكل غير مبرر، وأجبرت الشركة على إيقاف استخدام هذه الخوارزمية وإعادة تصميمها.
وفي مجال العدالة الجنائية بالولايات المتحدة، أظهرت دراسات أن بعض أنظمة تقييم خطورة المتهمين تستخدم خوارزميات تعطي أحكامًا أشد تجاه المجموعات العرقية الأقلية مقارنة بالمجموعات الأخرى، ما أثار انتقادات واسعة بشأن تأثير هذه التحيزات على حياة الأفراد وحقوقهم، مؤكدًا أن الذكاء الاصطناعي قد يكرر أو يزيد من التمييز البشري إذا لم تتم مراقبته.
أما في مجال التعرف على الصور، فقد واجه تطبيق "غوغل فوتوز" في 2015 مشكلة كبيرة عندما صنّف صور أشخاص ذوي البشرة الداكنة ضمن فئة "الغوريلا"، وهو خطأ مهين يعكس عدم كفاية البيانات التدريبية أو التحليل الخاطئ، ما دفع غوغل لإزالة هذه التصنيفات وتصحيح النظام.
الحل لا يكمن في التخلي عن الذكاء الاصطناعي، بل في تحمل مسؤوليتنا تجاهه. نحتاج إلى إطار أخلاقي صارم لتدريب هذه الأنظمة، ومراقبة حثيثة لخوارزمياتها، والتأكد ان بياناتها علمية وموثوقة. يجب أن نطور آليات للكشف عن التحيزات وتصحيحها، وأن نضمن شفافية أكبر في كيفية تعلم هذه الأنظمة. الأهم من ذلك، نحتاج إلى إدراك أن الذكاء الاصطناعي ليس كائناً مستقلاً، بل هو انعكاس لنا - لذكائنا وغبائنا، لحكمتنا وجهالتنا.
في النهاية، السؤال ليس هل يمكن للذكاء الاصطناعي أن يصبح ذكياً، بل هل نحن أذكياء بما يكفي لتعليمه بشكل صحيح؟ المستقبل الرقمي الذي نتخيله يعتمد على إجابتنا عن هذا السؤال المصيري.