في عصر تتلاحق فيه التحولات بسرعة تفوق كل التوقعات، يرى الخبراء أن هناك مجالين يتقدمان بوتيرة أسرع من المتوقع، هما تغير المناخ والذكاء الاصطناعي. وفي حين أن تغير المناخ يشكل تحدياً بيئياً عالمياً، يبرز الذكاء الاصطناعي كقوة تقنية تخطو بخطى متسارعة نحو ما يُعرف بـ "الذكاء الخارق"، وهو مستوى من الذكاء الاصطناعي، يفوق قدرات البشر في مجالات متعددة، ويستطيع اتخاذ قرارات معقدة بشكل مستقل.
وبحسب تقرير نشرته "بلومبرغ" واطّلع عليه موقع "اقتصاد سكاي نيوز عربية"، فقد أصبح الذكاء الاصطناعي كالبخار الذي يتغلغل في كل شيء، ويتسلل إلى كل جانب من جوانب حياتنا اليومية، بطريقة لا يمكن تجاهلها، وهو بات أكثر من مجرد أداة تقنية، بل أصبح قوة عالمية تتطلب تنسيقاً دولياً وإقراراً لمبادئ أخلاقية مشتركة، قبل أن يخرج عن السيطرة.
ويشير التقرير إلى أن أنظمة الذكاء الاصطناعي المستقبلية ستتمتع بقدرة فريدة على التصرف بشكل مستقل، دون ضمان أن تكون قراراتها دائماً في مصلحة الإنسان ورفاهيته. فقريباً، قد يجد الذكاء الاصطناعي نفسه أمام خيار تحديد ما إذا كان سيخلق منفعة للبشر أو يلحق الضرر بهم، ما يضع الولايات المتحدة والعالم أجمع أمام سيناريو أشبه بالكابوس، يمكن تجنبه فقط من خلال تعاون إستراتيجي بين أعظم قوتين في هذا المجال، وهما واشنطن وبكين.
واشنطن وبكين أمام الاختبار
وغياب التعاون الأميركي الصيني قد يقود إلى نتائج كارثية، إذ يمكن أن يتحول الذكاء الاصطناعي إلى أداة للريبة والصراع، تماماً كما حدث مع تطبيق "تيك توك" في الولايات المتحدة وعدد من دول العالم، حيث تداخلت التكنولوجيا مع المخاوف الأمنية والسياسية. وفي نهاية المطاف، قد يجد العالم نفسه أمام واقع منغلق، يمتلك فيه كل فرد نسخته الخاصة من الذكاء الاصطناعي، لكن بثمن باهظ يتمثل في انكماش التجارة العالمية وتآكل جسور الثقة بين الدول، وحينها سنكون جميعاً خلف جدران هذه التكنولوجيا، لكن من دون الأسس الأخلاقية التي تمنحنا الطمأنينة في حياتنا اليومية.
كيف نتجنّب أسوأ السيناريوهات؟
وبحسب تقرير "بلومبرغ" فإن العالم يقف اليوم على أعتاب أعظم ثورة تكنولوجية في تاريخه، لكن تجاهل المشكلة الحقيقية والمتفاقمة للذكاء الاصطناعي، يعني أن العالم يتغاضى عن جوهر القضية، المتمثل ببناء الثقة، فالولايات المتحدة بحاجة إلى ما يُعرف بـ "مُحكِّم الثقة" مع الصين، وهو نظام يُدمج داخل كل جهاز ذكاء اصطناعي لفلترة القرارات، والتأكد من التزام الأجهزة بقاعدتين أساسيتين:
- احترام قوانين الدولة التي يُستخدم فيها الذكاء الاصطناعي.
- مراعاة الأعراف الاجتماعية غير المكتوبة، أو ما يُسمى بـ "الدوكسا"، أي تلك القواعد التي نكتسبها من خلال التربية والخبرة اليومية حتى وإن لم تكن مكتوبة بالدساتير.
وبهذا الشكل، يمكن لواشنطن وبكين أن تؤسسا معاً حاجزاً وقائياً مشتركاً يضمن ألّا تُطرح أي سلعة أو خدمة مدعومة بالذكاء الاصطناعي في الأسواق العالمية ما لم تكن متوافقة مع مبدأ رفاهية الإنسان. علماً أن الولايات المتحدة والصين تتشاركان بالفعل العديد من القوانين الأساسية مثل حظر القتل أو السرقة أو التحريض على العنف، ما يجعل من الممكن الاستناد إلى هذه القواعد المشتركة كأساس لوضع ضوابط واضحة تنظم عمل الذكاء الاصطناعي.
خطيئة وسائل التواصل الاجتماعي
وبحسب تقرير "بلومبرغ" الذي اطّلع عليه موقع "اقتصاد سكاي نيوز عربية"، فإنه لا ينبغي للعالم أن يهدر الخير الهائل الذي يمكن للذكاء الاصطناعي أن يقدّمه للبشرية، حيث أن اعتماد ضوابط واضحة يحول دون تكرار الخطأ الذي تم ارتكابه مع وسائل التواصل الاجتماعي، فغياب القيود والضوابط، فتح الباب أمام شبكات التواصل الاجتماعي، لإغراق العالم بالمعلومات المضللة وخطاب الكراهية والانقسامات المجتمعية.
وإذا جرى التعامل مع الذكاء الاصطناعي بالنهج نفسه، أي السماح له بالاندفاع تحت شعار "التحرك بسرعة وكسر القواعد"، فإن العواقب المتوقعة قد تكون خطيرة جداً، لأن الذكاء الاصطناعي يمسّ في كل جوانب الحياة من الاقتصاد والسياسة إلى الثقافة وحتى مستقبل الإنسان ذاته.
الخطر من البشر وليس الذكاء الاصطناعي
ويقول الكاتب والمحلل في شؤون الذكاء الاصطناعي ألان القارح، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن الخطر الأكبر اليوم ليس في أن يسيطر الذكاء الاصطناعي على البشر، بل في أن يستخدمه البشر أنفسهم لتعزيز الانقسام، وتحويله إلى أداة حرب اقتصادية أو عسكرية، وعندها سيكون الكابوس حقيقياً، مشيراً إلى أنه في تاريخ التطور التكنولوجي، كانت كل نقلة نوعية تحمل وجهين، الأول يتمثل بفرصة هائلة والثاني بخطر كبير، وهذا ما ينطبق مثلاً على الطاقة النووية.
وبحسب القارح فإن ما يميز الذكاء الاصطناعي هو أنه يعتمد على بيانات وخوارزميات تنتشر بلا حدود، وهذا ما يجعله "قوة بلا جغرافيا" يمكن أن تعمل في أي مكان وفي أن تتجاوز أي قانون محلي بسهولة، تماماً مثل ما حصل مع شبكات التواصل الاجتماعي، التي هيمنت في السنوات على تدفق المعلومات وتسببت بانتشار خطاب الكراهية والأخبار المضللة، مشدداً على أن سبب حصول ذلك هو أن صناع السياسات كانوا متأخرين لسنوات عن ضبط هذه التكنولوجيا، في حين أن تكرار السيناريو نفسه مع الذكاء الاصطناعي قد يكون كارثياً، لأننا نتحدث عن أنظمة قد تتخذ قرارات عسكرية واقتصادية أو حتى طبية دون تدخل بشري.
ويضيف القارح أن الذكاء الاصطناعي ليس أداة محايدة، فهو يتعلم من البيانات التي تعكس تحيزات وتناقضات وحتى نزعات البشر، وإذا تُركت هذه التكنولوجيا تنمو وفق مبدأ "التحرك بسرعة وكسر القواعد" كما حصل مع شبكات التواصل الاجتماعي، فسوف نرى تكراراً موسعاً للفوضى الرقمية.
لماذا المطلوب تدخّل أميركا والصين؟
ويشرح القارح أن حل المشكلة يكمن في تدخّل أميركا والصين، لأن البلدين يمتلكان معاً أكثر من 70 بالمئة من قدرات الذكاء الاصطناعي العالمية، بما في ذلك المواهب وبراءات الاختراع والتمويل، وفي حال استمرت واشنطن وبكين في النظر إلى الذكاء الاصطناعي كأداة صراع، فإن النتيجة شبه مؤكدة هي الوصول إلى عالم منقسم تقنياً، ولذلك فإن المطلوب هو إقرار "معاهدات رقمية" بين القوى الكبرى تُحدد إطار الاستخدامات المسموح بها للذكاء الاصطناعي، في الحرب وفي الاقتصاد وحتى في الفضاء السيبراني، تماماً كما كان لدينا معاهدات الحد من انتشار الأسلحة النووية.
ويؤكد القارح أنه بالفعل يمكن تصميم أنظمة فرعية داخل خوارزميات الذكاء الاصطناعي لكي تعمل كطبقة مراقبة داخلية تراجع القرارات قبل تفعيلها، وهذا شبيه بما تفعله أنظمة الأمان في الطائرات التي تمنع الطيار من ارتكاب بعض الأخطاء حتى لو أراد ذلك، مشدداً على ضرورة إشراك أطراف متعددة في "المعاهدات الرقمية" لا أميركا والصين فقط، فاستبعاد الاتحاد الأوروبي مثلاً سيؤدي إلى نشوء معسكرات متنافسة ويعمّق الانقسام بدلاً من معالجته.
3 مسارات متوازية
بدوره يقول المحلل التقني جو زغبي في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن الحل للمشاكل التي قد يتسبب بها الذكاء الاصطناعي لا يمكن أن يكون تقنياً فقط، فالعالم بحاجة إلى بنية أخلاقية عالمية للذكاء الاصطناعي وهذا يتطلب السير في ثلاثة مسارات متوازية هي:
إطار أخلاقي ملزم: ليس مجرد إرشادات طوعية كما تفعل بعض الشركات الآن، بل التزام قانوني دولي بأن أي نظام ذكاء اصطناعي يجب أن يراعي مبادئ أساسية مثل العدالة والشفافية وقابلية المحاسبة، حيث يمكن الاستفادة هنا من جهود الاتحاد الأوروبي في "قانون الذكاء الاصطناعي"، لكن يجب توسيعه ليصبح معياراً عالمياً.
اقتصاد الذكاء الاصطناعي العادل: إذا تحوّل الذكاء الاصطناعي إلى أداة مركّزة في يد حفنة من الشركات العملاقة، فسنرى إعادة إنتاج لعدم المساواة على نطاق أوسع، لذلك فإن المطلوب هو سياسات تتيح الوصول المفتوح نسبياً للتكنولوجيا وتمنع الاحتكار، والولايات المتحدة قادرة على لعب دور قيادي عبر تشريعات مكافحة الاحتكار، خصوصاً ضد شركات التكنولوجيا الكبرى.
التربية والوعي المجتمعي: لا يمكن مواجهة المخاطر عبر القوانين فقط، بل يجب أن يتم تدريب الناس على التعامل مع الذكاء الاصطناعي بوعي نقدي، كما نعلّمهم محو الأمية، فالمجتمع الذي لا يفهم أساسيات الذكاء الاصطناعي سيكون عرضة للتلاعب، كما حدث مع الأخبار المضللة.
من مصدر توتر إلى مصدر رخاء
ويشدد زغبي على أنه إذا نظرنا إلى الذكاء الاصطناعي كأداة للتنافس الجيوسياسي فقط، فسوف ينحصر دور هذه التكنولوجيا في سباق على النفوذ الاقتصادي والتقني، ولكن إذا اتفقت الدول على مجموعة من القواعد المشتركة، مثل ضمان الشفافية في استخدامه بالقطاعين المالي والطبي أو منع استغلاله في انتهاك الخصوصية، فسيصبح الذكاء الاصطناعي محركاً للتنمية والتعاون الدولي، بدلاً من أن يكون مصدر توتر.