ثورة رقمية تعيد تشكيل حياتنا.. هل يواكب وعي المجتمع تسارع تطور الذكاء الاصطناعي؟

نبض البلد -

 

الصفدي: التربية الرقمية والحوكمة الصارمة ضرورة لحماية مستقبلنا

البطش: الذكاء الاصطناعي أداة تحتاج إلى إشراف بشري وتدقيق مهني

الأنباط – عمر الخطيب

في ظل التحول الرقمي المتسارع، بات الذكاء الاصطناعي جزءًا لا يتجزأ من حياتنا اليومية، مشهد بسيط يكشف هذا التغير، فبدلًا من التوجه إلى إنسان عاقل لطلب نصيحة أو مشورة، أصبح كثيرون يلجؤون إلى الذكاء الاصطناعي للسؤال عن كل شيء؛ من الفتاوى الدينية إلى الأدوية والمشكلات الشخصية. المواطن اليوم يتعامل مع هذه التقنية وكأنها "حكيم العصور”، متناسيًا دور الخبراء والمصادر الموثوقة.

ورغم أن الذكاء الاصطناعي يمثل ذروة التقدم التكنولوجي وأداة قوية تعزز قدرات الإنسان، إلا أن المشكلة لا تكمن فيه، بل في كيفية استخدامه. فبدلًا من استثماره كأداة مساعدة، يراه البعض عصًا سحرية تُغني عن التفكير والتدقيق، ما يخلق تحديات تتجاوز حدود التقنية نفسها، وقد تقود إلى أزمات يصعب حلها إن لم تُضبط منذ الآن.

ومع تحذيرات من كبار علماء الذكاء الاصطناعي – كجيفري هينتون – بأن الذكاء الاصطناعي العام قد يتفوق على الإنسان بحلول 2027، تتعاظم المخاوف بشأن مستقبل الوظائف، والاقتصاد، بل وحتى الوجود البشري ذاته. فهل نحن مستعدون لتحمّل مسؤولية الاستخدام الواعي والمسؤول لهذه التقنية؟ أم أننا سنتركها تقودنا نحو مستقبل غامض ومُثقل بالمخاطر الأخلاقية والاجتماعية؟

 

ثورة تقنية تحمل فرصًا وتحديات أخلاقية

وأكد الرئيس التنفيذي لشركة "آرتي كيز” – الأردن والسعودية، وخبير الاتصالات وتقنيات المعلومات، وصفي الصفدي، أن العالم يشهد اليوم ثورة حقيقية بفعل تطورات الذكاء الاصطناعي، الذي لم يعد مجرد أداة تقنية بل أصبح حاضرًا في التعليم، والعمل، والعلاقات الاجتماعية، موفّرًا حلولًا مبتكرة وفرصًا للنمو.

وأضاف الصفدي أن هذا الواقع الجديد، ورغم وعوده الكبيرة، يثير مخاوف متزايدة من التداعيات الأخلاقية وسوء الاستخدام، خصوصًا مع غياب الضوابط والرقابة البشرية.

 

التحديات وسوء الاستخدام

وأوضح الصفدي أن أبرز التحديات الراهنة تكمن في إساءة استخدام أدوات الذكاء الاصطناعي، خاصة التوليدية منها، والتي باتت تنتج محتوى يُتداول أحيانًا دون تدقيق حتى في موضوعات شديدة الحساسية مثل الدين والصحة. واعتبر أن الاعتماد الكامل على هذه التقنيات دون رقابة بشرية يفتح المجال أمام أخطاء فادحة وانحيازات بيانات قد تؤثر سلبًا على الأفراد والمجتمع.

وشدد على أن التربية الرقمية والحوكمة الصارمة أصبحتا ضرورة ملحّة لحماية مستقبل الأجيال، وضمان الاستخدام الآمن والمسؤول للتكنولوجيا.

 

تآكل الثقة وضعف التفكير النقدي

وحول تداعيات المعلومات المضللة الناتجة عن استخدام الذكاء الاصطناعي، قال الصفدي إن ذلك يؤدي إلى تآكل الثقة بالمصادر الرقمية، وزيادة الحيرة لدى الناس في التمييز بين الصواب والخطأ، خصوصًا في القضايا الطبية والدينية، مما يهدد سلامة القرارات الفردية.

كما حذّر من أن الاعتماد المستمر على الذكاء الاصطناعي يضعف مهارات التفكير النقدي، ويجعل الأفراد أكثر عرضة لتقبّل أي معلومة دون فحص أو تحليل.

 

أخطار متصاعدة وتحديات أمنية

ولفت الصفدي إلى أن التوسع في استخدام الذكاء الاصطناعي يفتح الباب أمام مخاطر جسيمة، منها فقدان الوظائف نتيجة الأتمتة، وتهديدات سيبرانية، وحتى تطوير أسلحة ذكية تستخدم لأغراض عدائية.

وأشار إلى أن القدرة الذاتية للذكاء الاصطناعي على تعديل برمجياته تثير مخاوف بشأن تصرفات غير متوقعة قد تصدر عنه، ما يجعل الحاجة ماسة لشفافية ومساءلة قانونية وأخلاقية.

 

نصائح لاستخدام آمن

ودعا الصفدي الأفراد والمجتمعات إلى تبنّي نهج نقدي ومسؤول في التعامل مع الذكاء الاصطناعي، مؤكدًا أهمية عدم التسليم التام بالمعلومة الأولى، خاصة في القضايا الحساسة، والعودة إلى مصادر موثوقة، إلى جانب تعزيز مهارات مثل الإبداع والتفكير التحليلي، والمشاركة في نقاشات تنظيمية لضمان استخدام أخلاقي ومستدام لهذه التقنية.

 

وعي محدود يهدد قرارات الأفراد

من جهته، أشار مستشار الذكاء الاصطناعي والتحول الرقمي المهندس هاني البطش، إلى أن الاستخدام الواسع لهذه التقنية من قِبل الأفراد يجري أحيانًا بدون وعي كافٍ بحدودها، حيث يتم الاعتماد عليها لطلب فتاوى دينية أو توصيات طبية دون إدراك لمحدودية دقتها.

ونوّه البطش إلى أن النماذج التي تُستخدم حاليًا قد لا تكون متقدمة بما يكفي، وتفتقر إلى القدرة على فهم السياق الأخلاقي أو الثقافي، ما يزيد احتمالات الوقوع في قرارات خاطئة.

 

إشراف بشري وتدقيق مهني

وشدد البطش على أن الذكاء الاصطناعي – رغم تقدمه – لا يزال أداة تحتاج إلى إشراف بشري وتدقيق مهني، خاصة عند استخدامه في مجالات حيوية. ودعا إلى تعزيز الوعي الرقمي وترسيخ مبدأ أن الذكاء الاصطناعي مكمل للخبرة الإنسانية، وليس بديلًا عنها.