ها هي هبّة الذكاء الاصطناعي تتلاشى
يخطئ (GPT-5) أخطاءً تافهة يعلمها بالبديهة أي إنسان، رغم زعمهم أنه يضاهي خبراء بشهادات دكتوراة

عبدالله بن حمدان:
في نشرة الصفحة الأخيرة من ثمانية
ما زلت أذكر 30 نوفمبر، 2022 بالتاريخ الدقيق، بسبب حدثٍ بارز ونوعي صار فيه: إصدار نموذج (GPT-3.5) من (OpenAI).
وعندما أذكر الآن كيف كان أداؤه ضعيفًا وقدراته محدودة -من عجزٍ عن فهم المراد، أو ضعف في التنفيذ، أو حتى الهلوسة والتصريح بالمعلومات المختلَقة بثقة- أعجب من انبهاري وانبهار كثيرين غيري به حينها.
وعندما توالت التطوّرات والإنجازات في الشهور اللاحقة، أُخذ الناس، على اختلاف خلفياتهم، بالذكاء الاصطناعي، وهلعوا من أثره المحتمل في مستقبل الإنسان، ولا سيّما تهديده جميع وظائف البشر.
ولا أنكر أنني انبهرت كما انبهر الجميع، مفترضًا أن هذه التقنية في تطوّر مستمر لن يهدأ، وأنها متغلبة حتمًا على الإنسان ومستبدلةً إياه في كل وظائفه، وإنما الاختلاف على الحين الذي سيتحقق فيه كل ذلك، وليس على تحققه من عدمه.
ثم بمرور الشهور والسنين، وبعدما درست الذكاء الاصطناعي واستخدمت مختلف أدواته بكثافة وتعمق، وتابعت مختلف تطوراته المستجدة؛ تأكدت من تأخّره الشديد مقارنةً بالقدرات الإنسانية الذهنيّة، وأن قيودًا متعددة تحدّ المحافظة على معدلات نموه وتطوره، مما يُبرز فرضية تسطّح قدراته بفعل قانون تناقص الغلّة (Diminishing Returns).
وعزّز إصدار نموذج (GPT-5) المنتظر من (OpenAI) من بروز هذه الفرضية؛ إذ جاء النموذج الجديد دون توقعات المستخدمين والمختصين، ومخالفًا للمبالغات في تقدير نموِّ قدرات الذكاء الاصطناعي.
يعلّق عدد هذا الأسبوع على هذا الإصدار، وما الذي يعنيه لواقع العلاقة البشرية مع الذكاء الاصطناعي ومستقبلها.
لمّا خرجت محادِثات الذكاء الاصطناعي أول مرة قبل سنتين، صُدم الناس حينها صدمة عظيمة واستعجبوا كيف لآلة أن تحادثنا بهذه الطلاقة حتى لا تكاد لغتها تُخطئ. ومع هذا، فإنهم وجدوا عليها مآخذ وعيوبًا كأي تقنية في بدايتها.
لكن لم تمر أربعة أشهر من إعلانها حتى أطلقت شركة (OpenAI) النسخة الرابعة من محادِثها، (GPT-4)، فكبر استعظام الناس لها وزادوا عجبًا فوق عجبهم وأكبروها حتى خافوا على مستقبلهم منها. فما كانوا يرونه عظيمًا بعيوب (GPT-3.5) صار عظيمًا خالصًا (GPT-4)، وكل هذا في أربعة أشهر فقط! كيف بنا، بعد سنين، حين يشتد عود هذه الآلات وتقوى خوارزميّاتها وتزداد حواسيبها، أين نحن حينها منها؟ ماذا سنفعل حين يخرج (GPT-5) قريبًا؟
وهذا الهلع لم يستأثر به عوام الناس ممن لا علم لهم بالذكاء الاصطناعي، بل حتى كبارهم وعلماؤهم كانوا مثلهم أو أشد. حتى تعاونوا وتعاهدوا وكتبوا عريضة يثبتون بها مخاوف الناس، فقالوا: «فلنسأل أنفسنا: أنريد أن تأخذ الآلات كل وظائفنا؟ أنريد عقولًا تفوقنا عددًا وتغلبنا رشدًا وتجعلنا أثرًا ثم تستبدلنا رهطًا؟» ثم عزموا على ألا يكون هذا الذي ذكروه حقًا، فقالوا: «لذلك، على كل معامل الذكاء الاصطناعي أن توقف أعمالها ستة أشهر فلا تُدرّب نموذجًا أقوى من GPT-4».
فخوفهم مما رأوه من (GPT-4) جعلهم يهرعون إلى إيقاف كل شيء أكبر منه قدرًا. فوقّع على هذه العريضة كبار علماء الذكاء الاصطناعي مثل يوشوا بنجو وستوارت رسل، وكبار رؤساء التقنية مثل إلون مسك، وفيزيائيون ومؤرخون وآخرون كثر، كلهم مثلهم. ما جمعهم إلا شيء واحد: إن كان هذا حال (GPT-4) فكيف بـ(GPT-5)؟
ثم خرج (GPT-5) قبل أيام. فهل وجدوا ما وعدوا حقًا؟
إعلان (GPT-5)
بدأ سام ألتمان رئيس (OpenAI) إعلانه عن (GPT-5) قائلًا: «كان (GPT-3) كطالب في الثانوية، ثم جاء (GPT-4) فكأنك تحادث طالبًا في الجامعة. أمّا (GPT-5) اليوم فكأنك مع خبير بشهادة دكتوراة في كل العلوم.
ومقولته هذه متخمة بالأخطاء، أذكر لك طرفًا منها:
الذكاء الاصطناعي شيء وعقل البشر شيء آخر مختلف. بل هو مقارنة بين شيئين ليس بينهما من المشتركات إلَّا أقل القليل. فكما بيّنت في مقالتي السابقة، الآلة نتائجها خوارزمية أمّا البشر فغير خوارزميين، وللبشر أجساد تؤثر فيهم وفي ما حولهم وليس للآلة مثلها (حتى الروبوتات)، والبشر حيويون والآلات من سليكون، والبشر واعون بأنفسهم يخرجون عن ذاتهم، وأنّى للآلة هذا؟ والبشر يفعلون ما يريدون، والآلات تفعل ما تؤمر به (باتباع الخوارزميات والبيانات)، وخاتمة المقارنة وقاصمة ظهرها: للبشر أرواح من غير عالم المادة نفخها فيهم خالقهم تعالى، وليس لنا أن نعطي الآلات أرواحًا أبدًا.
فكيف تقارن بين اثنين هذا حالهما؟ ومع هذا، سأفترض إمكانية المقارنة المطلقة وأعرض قوله على مطلق العقل.
من عيوب مقارنة البشر بالآلة: «التأنيس»، وهو إضفاء صفات الإنسان على الآلة. وبالتأنيس تنعطب كل المقارنات، ويكون صاحب المقارنة متحكمًا في النتيجة قبل بدء المقارنة. مثلًا، لو كنا نريد مقارنة القطن بالفولاذ، ثم قبل المقارنة عمدنا إلى «التفليذ» على غرار «التأنيس»، فقلنا القطن خصائصه كالفولاذ؛ سنخرج بعدها بنتيجة خاطئة لكن منطلقاتها صائبة: القطن يشبه الفولاذ حتى في وزنه، وعليه لا مشكلة في بناء الجسور بالقطن.
أرأيت سخف نتيجة المقارنة هذه؟ هذا بالضبط ما يحصل حينما نقارن الإنسان بالآلة وننطلق من تأنيس الآلة. وكلام سام ألتمان الأول طافح بالتأنيس، بل كل مقارنة لا بد أن يكون فيها شيء من هذا.
ومن التأنيس في كلامه: إطلاق قدرة معرفة الأساسيات عند البشر إلى الآلة. مثلًا، لو أعطيت أحدًا مسألة معقّدة في الرياضيات وحلّها، تستنبط بداهةً قدرته على الجمع والطرح وغيرها من أساسيات الرياضيات. ولو رأيت رياضيًّا يجري في المضمار، لن تشك في أنه يستطيع القفز أيضًا. ولو ذقت من طباخ ألذ أصناف الطعام وأفخر ألوان الحلويات، لما شككت في أنه قادر على قلي بيضة. هذه المعرفة والتدرج ليسا موجودين عند الآلات. فأحسن الآلات رسمًا لا تعرف كيف ترسم خطًّا مستقيمًا مجردًا، وأعلاها درجة في اختبارات المحاماة لا يحسن الدفاع عن أسهل القضايا، والحائز على ميداليات ألمبياد الرياضيات لا يعرف كم ضلعًا في الشكل السباعي ولا يعرف كيف يضرب عددين. هذا في مهارات العقول، وأشد منه في حركات الجسد. فالروبوت الذي يجري لا يقفز، والذي يمسك الحجر لا يمسك البيضة دون أن يكسرها، ومن يعرف المشي داخل المباني لا يقدر على التموقع في خارجها.
و(GPT-5)، المزعوم أن علمه وفهمه كخبراء بشهادات دكتوراة، يُخطئ أخطاء تافهة يعلمها بالبديهة أي إنسان. ومن ذلك، مثلًا، أنه لا يحسن عدّ الحروف ولا جمع الأرقام ولا حتى بعض أساسيات الفيزياء والميكانيكا. وإن سألته عن صور أفتى لك مستبطنًا الخدع البصرية فجاوب بعيدًا جدًا عن الصواب. فلو سألته عن خطين أحدهما قصير جدًا والآخر طويل جدًا لقال لك: إن هذه خدعة معروفة وفي الحقيقة كلاهما متساويان! ولا يزال النموذج كثير الهلوسة كسابقيه ويخطئ في معلومات ويؤلف أخرى.
ثم أرأيت تشبيهه (GPT-3) بطالب الثانوية؟ ذكرت موراتي، رئيسة التقنية في (OpenAI) قبل عام، أن ذكاء (GPT-3) كالرضيع و(GPT-4) كطالب ثانوية. أرأيت هذا التخبط حتى ليختلف الرئيسان فلا يدريان أذكاء (GPT) يشبه الرضّع أم يشبه الرجل البالغ العاقل؟ أكان أحد منهما ليشك لحظة لو كلمه إنسان: أطفل هو أم بالغ؟ لا، ولكن لمَ الاختلاف هنا؟
ما حملهم على هذا إلا شيء واحد: التسويق. فكلهم كان سياقهم التهويل وتكبير (GPT-5) ليوهموا الناس أنهم سيشهدون قفزة عظيمة في الذكاء، فيهرعون إليه.
التسويق بالتهويل
من أكبر آفات البحث والتطوير في الذكاء الاصطناعي غلاء تكلفته حتى صار لا تستطيعه إلا الشركات. فنموذج قوقل جمناي (Gemini) قد كلفهم أكثر من 700 مليون ريال، ورئيس أنثروبك، صاحبة نموذج الذكاء كلاود (Claude)، يقول إن تدريب النماذج سيكلف السنة القادمة 3.75 مليار ريال، ولا يستغرب إن وصلت التكلفة إلى عشرات المليارات لتدريب نموذج واحد فقط.
هذه التكاليف الضخمة جعلت الذكاء الاصطناعي الأكبر بيد الشركات وأخذته من أيدي العلماء ومراكز الأبحاث. هذا وقد أهملنا تجميع البيانات الهائلة الذي لا يستطيعه أحد إلا صاحب منصة كبيرة كقوقل أو «إكس».
وما دام لا تستطيعه إلا الشركات، والشركات تتنافس لزيادة الأرباح، والنماذج تقارب بعضها قوةً، فهذا يعني أن جلب العملاء لا يكون إلا بالتسويق. والتسويق بالتهويل لعبة الشركات، كيف والناس قد تشبعوا أهوال الذكاء الاصطناعي ورعبه ومخاطره بعد أن غذّتهم منتجات الخيال العلمي بهذا؟
قد يقول قائل: أليست الأهاويل حول المنتج منقصة، فكيف تكون تسويقًا؟
وأقول: التسويق بالتهويل انتهجته شركات الذكاء الاصطناعي من جهات عدة:
• هوّلت من أمر الذكاء الاصطناعي وقدراته حتى يظن السامع أنه سيحل كل مشاكله فيسارع إليه وينتظر مستقبله ويتحرّى أخباره.
• هوّلت من مخاطره ثم ادّعت أن ذكاءها آمن. لذلك، تجد شركات الذكاء الاصطناعي تعرض في يوم الإطلاق كلَّ سبلها لجعل ذكائها آمنًا. بل ومن الشركات من جعل «الأمان» في اسمه تسويقًا، كشركة ستسكيفر (Sutskever) المسماة «الذكاء الخارق الآمن» (Safe Superintelligence).
وأكثر شركة استغلت التسويق بالتهويل هي صاحبتنا (OpenAI). ولو رجعت إلى كلام رئيسها في هاتين السنتين لرأيت عجبًا؛ من ذلك أنه كتب تعليقًا ذكر فيه أن شركته قد طورت الذكاء الاصطناعي العام المنتظر (AGI)، ثم عدل تعليقه بعدها وذكر أنه يمزح. وقبل شهور، كتب مقالة في مدونته وذكر فيها أن شركته قد علمت الآن كيف يُطوّر الذكاء الاصطناعي العام، وأنهم بدؤوا يلتفتون لما هو أعظم: إلى الذكاء الاصطناعي الخارق، وفي بضع سنين سيرى العالم ما يرونه.
ولو رجعت إلى حسابات موظفي الشركة في الشهور الماضية لرأيت منهم مبالغة وتهويلًا كهذا أو أشد، فالحرب بين الشركات صارت حرب تسويق وتهويل لا حرب منتجات. وليست (OpenAI) المتفردة في هذا، فمثلًا، وعد رئيس شركة أنثروبك بحياة كريمة ورغد من العيش عظيم وفتح في كل شيء في العلوم وشفاء من أمراض كثيرة حين يطورون ذكاءً خارقًا. وكثير من هذه الوعود يزامنها جولات استثمارية لهذه الشركات، وكأنهم يقولون: إن أردتم هذا العالم الجميل فأعطونا أموالكم.
ومما تستغله الشركات في تضخيم نماذجها هي مقاييس الذكاء الاصطناعي. وهذه المقاييس كانت من أدوات الأبحاث لمعرفة قوة خوارزمياتهم ومقارنتها بغيرها وطرق تحسينها، أما اليوم فقد صارت أداة للتسويق بيد الشركات. فأول ما أعلنت (OpenAI) عن نموذجها (O3) كانت تتفاخر بنتيجته في مجموعة التجريد والتعقّل (ARC – AGI)، وكانوا يذكرون درجتهم في كل محفل وكل عرض تسويق، لكنهم لمّا أعلنوا عن (GPT-5) لم يذكروا نتيجته في المقياس قط. ولمّا بحثت عن نتيجته وجدتها أقل حتى من (O3)، بل إن نماذج أخرى كانت أعلى منه. فالذي يفعلونه باختصار: أنهم يجربون نماذجهم على مقاييس كثيرة، والمقياس الذي تكون درجتهم فيه عالية يسوّقونه، وما فشل فيه نموذجهم يتركونه.
أنا أعلم بمصلحة البشر
هل تذكرُ العريضة، في مقدمة المقالة، الداعية لهدنةٍ في تطوير الذكاء الاصطناعي فلا يُطوَّر شيء أعلى من (GPT-4)؟ وأن من الموقّعين عليها إلون مسك؟
قبل نشر العريضة بأسبوعين أنشأ إلون مسك شركته في الذكاء الاصطناعي (xAI)، وهذه الشركة طورت نموذج قروك (Grok) الذي غلب (GPT-4) في مقاييس كثيرة. أي أن إلون مسك ممن وقع على العريضة وهو يبطن خيانتها. فحاله هنا بين أمرين:
إمّا أنه وقّع عليها أملًا في أن تعتمدها الحكومات وتتوقف شركات الذكاء الاصطناعي عن التطوير فتسهل عليه المنافسة ويلحق بهم. أو أنه وقّع عليها وهو يعلم في قرارة نفسه صحة ما فيها وأن الضرر من الذكاء الاصطناعي حاصل، لكن، كما هو عنوان هذا القسم من المقالة، إلون مسك يرى نفسه «أعلم بمصلحة البشر»؛ فالذكاء الاصطناعي الذي يشرف عليه أولى من ذكاء الشركات الأخرى، وأن مستقبل البشر في يده أحسن من مستقبلهم لو كان بيد غيره.
وهذا بالضبط ما ذُكر عن سبب إنشاء شركة (OpenAI)؛ فقد كانوا يخافون على مستقبل البشر من شركة (DeepMind) لو وصلت إلى الذكاء الاصطناعي العام.
وهذا الغرور تجده عند رؤساء أخر، مثلًا درايو أموداي، صاحب أنثروبك، ذهب إلى أبعد من هذا فذكر في مقالات عدة له أنه ينبغى على أمريكا وحلفائها التحكم والتقدم في الذكاء الاصطناعي، ولا يُسمح للصين ولا غيرها التطور فيه. لماذا يدعو إلى هذا؟ لأنه يرى أن الغرب أعدل في استخدام الذكاء الاصطناعي وأنه يساعدهم على نشر الديمقراطية، أما الدول الأخرى، كالصين، فلا يأمن أن يستغلوه في دكتاتورياتهم. لذلك يقول بالحرف الواحد: «ينبغى أن نتقدم في الذكاء الاصطناعي أولًا قبل أن تستغله هذه الدول في انتهاكات حقوق الإنسان.» فنعود هنا لاستغلال الغرب لخطاب «حقوق الإنسان» حتى يتسيدوا في كل شيء، مع أن الإنسان المقصود عندهم هو إنسانهم هم لا إنسان العالم، وغزّة خير شاهد.
وعلى ذكر غزة، فإن إسرائيل في إبادتها قد أكثرت من استعمال الذكاء الاصطناعي، واستغلته لقتل الأبرياء وتتبع أهل غزة ومراقبتهم وإرسال الصواريخ والمسيرات عليهم. ثم بعد هذا كله يأتينا داريو وينصحنا أن من الخير للعالم أن يبقى الذكاء الاصطناعي في يد الغرب حماية لـ«حقوق الإنسان». وعلى كثرة المقابلات التي خرج فيها والمقالات التي كتبها، إلا أنه لم ينتقد إسرائيل مرة واحدة.
ولا تظن داريو يحارب الصين وحدها، بل حتى دول الخليج يراها شرًّا ينبغى ألا يكون لها من الذكاء الاصطناعي شيء. ففي تقرير لـ(CNBC) ذُكر أن شركته رفضت قبول استثماراتٍ من السعودية بحجة حماية الأمن القومي.
كيف تلقّى الناس خبر (GPT-5)
لا أبالغ إن قلت إن انتظار الناس لهذا النموذج كان من أكثر الانتظارات في تاريخ التقنية، والخرافات التي توقعها الناس كانت من أكبرها في أي تقنية. فزيادةً على المخاوف التي ذكرتها في المقدمة، كان من الناس من يظن أن (GPT-5) سيكون كائنًا واعيًا، مثل حامل لواء التحذير من الذكاء الاصطناعي إليزر يدكواسكي (Eliezer Yudkowsky) الذي توقع وعي (GPT-5)، بل خالف العريضة وقال: ينبغي أن يتوقف تطوير الذكاء الاصطناعي أبد الدهر.
ولو رجعنا إلى ما قبل إعلان (GPT-5) بساعات قلائل، لرأينا من الناس شبه إجماع على أن المستقبل مستقبل (OpenAI) بنموذجها (GPT-5)، ففي أحد توقعات (Polymarket) كانت نسبة الناس الذين يرون الغلبة لشركة (OpenAI) هي 75%. ثم أعلنت (OpenAI) عن (GPT-5) فلمّا رأوه الناس، سقطت توقعاتهم من 75% إلى 14%.
وكانت هذه عناوين الصحف بعد إعلان (GPT-5):
• (GPT-5) فشل في أن يكون عند ظنّ الناس.
• كثير الضجيج ضعيف النتيجة: ضاعت فرصة (GPT-5).
• هل ضرب الذكاء الاصطناعي في جدار الحدود؟
وغيرها الكثير من العناوين التي نقلت معاناة الناس وأخطاء الإعلان وتلاشي الآمال. وحتى الناس في وسائل التواصل أحزنهم واقع (GPT-5)، ومنهم من أخذ يتندر على النموذج وعلى الإعلان ويطالب بإعادة النماذج السابقة.
فما الذي رأوه حتى يُصدموا هذه الصدمة؟
الحق أن نموذج (GPT-5) نموذج بارع عالي الأداء، لكن صدمة الناس ليست أنهم رأوا شيئًا أقل مما توقعوه، بل أنهم لم يروا المعجزة الخارقة التي تمنوها. رأوا نموذج ذكاء اصطناعي، وأرادوه كائنًا خارقًا للطبيعة، غالبًا للإنسان.
لمَ لمْ يأتي (GPT-5) بمثل ما وعدونا به؟
أهم ما توقع العلماء بسببه أن الذكاء الاصطناعي سيتفجر هو ما يعرف بـ«قوانين التضخم». فقد لوحظ في بدايات الثورة الحالية للذكاء الاصطناعي أن المعمارية الحالية لو أعطيتها بيانات وحوسبة إضافية ستعطيك قدرات جديدة وأعلى من سابقتها. ولتساهل البشر بالاستقراء ظنوا أن هذا سيستمر لما لا نهاية، فكل ما تحتاجه هو بيانات وحوسبة وسنصل إلى الذكاء الاصطناعي الخارق.
والنماذج الحالية، ومنها (GPT-5)، استهلكت تقريبًا جميع البيانات المتاحة للتدريب، حتى بدؤوا يعتمدون على البيانات المصطنعة. فأول حدّ وصلوه هو قلة البيانات في العالم. أمّا الحوسبة، فما هو موجود لا يكفي لاستخراج قدرات جديدة للذكاء الاصطناعي، فبدأت الشركات باستثمار ترليونات الريالات لبناء مراكز للحوسبة، مثل (Stargate)، بالتعاون بين أمريكا و (OpenAI) وغيرهم. والحق أنها نظرة مستعجلة للتقدم، فللعالم حدود فيزيائية تجعل من قوانين التضخم مستحيلة التحقيق على المدى البعيد، وهذا مما نرى بداياته اليوم. ولا ينفي هذا أن التوسع فيها سينفع هذه النماذج ويزيد قدراتها مستقبلًا. وكثير من الحدود لن نعرفها ما لم نجرب.
ومن أسباب بطء التطور أن التطويرات الواضحة والقطوف الدانية قد اكتُشفت في البدايات. فالقفز من أول كشف عن خوارزمية المحوّلة (Transformers)، التي هي أساس النماذج اللغوية اليوم، إلى أول النماذج الضخمة حصل معه تطويرات وإضافات كبيرة. بل إن هذه الخوارزمية، أول ما طُوّرت، ما كانت للنماذج اللغوية، بل كانت للترجمة، ثم بعدها اكتشفنا فائدتها لتوليد النصوص. فالتقنيات والخوارزميات، أول ما تخرج، تأتي معها تطويرات كثيرة تقفز بها إلى مستويات عليا بسرعة.
وهنا ينخدع كثير من الناس ويظن التطويرات مستمرة. وفي الحقيقة أن كل التطويرات القريبة والمقدور عليها قد اكتُشفت، أما الباقية فقد تكون صعبة لا بد من جهد كبير حتى تخرج. وهذا هو مثل القطوف الدانية: الثمار القريبة تُقطف أولًا، أمّا البعيدة فتصعب على القاطف.
وهذا ديدن كل التقنيات، تكون تطويراتها أول ما تخرج كثيرة ومتتابعة، ثم تَبطؤ ولا يكون فرق كبير بين الأجيال الجديدة. فمن عاصر الجوالات الأولى ورأى تطورها إلى جوالات اللمس لهالَه ذلك ولظن الجوالات ستكون شيئًا عجيبًا بعد سنين، والحق أن جوالات اللمس تطورت وتباطأ تطورها حتى وصلت إلى حال لا تستطيع التفريق فيه بين جوال صدر اليوم وآخر قبل ثلاث سنين.
وأخيرًا، فإن الخطوات الأخيرة للوصول تكون، غالبًا، أضعاف صعوبة الخطوات الأولى مجتمعة. فأن تصل من نسبة 0% إلى 80% في مقياس للذكاء الاصطناعي قد يكون سهلًا، أما القفز من 80% إلى 100% قد يحتاج إلى أضعاف التطورات والمحاولات. ومثال هذا في السيارات ذاتية القيادة، فهذه السيارات مضى على تطويرها أكثر من عشرين سنة، وقد كان التحكم الذاتي في أساسيات القيادة والتنبه للطرق من أول ما كمل إنجازه، لكن القفز بعدها إلى سيارة تقود بنفسها في كل الطرق هو الذي أخّرها كل هذه السنين.
تلاشي هبّة الذكاء الاصطناعي
أول علامات خفوت الهبّة وتلاشيها أن الناس بدؤوا بتقبّل نقد الذكاء الاصطناعي وعدم إنكاره. فقبل سنتين، عند أول ظهور لها، خرجت أبحاث كثيرة تتكلم في حدود هذه الخوارزميات ومآلاتها والجدُر التي ستضرب فيها. ومع هذا، كانت قليلًا ما تخرج من الباحثين إلى عوام الناس. وإن خرجت أعرضوا عنها واتهموها، وأحسنهم طريقةً يتفق مع هذه الحدود، لكنه يقول إنها حدود عند البشر أيضًا (يرجعنا إلى التأنيس)، أو أنه يقول إنها حدود سيغلبها الزمان.
أما هذه الأيام، فكل نقد يخرج من مراكز الأبحاث يتلقاه الناس بالقبول، وأكثرهم انتشارًا بحث أنتجه باحثون من شركة أبل (جاوز عدد قرائه الملايين) ذكروا فيه أن التفكير الذي تخرجه هذه النماذج ما هو إلا وهم، وأن بإبعاد الاختبارات التي قد تكون حفظتها هذه النماذج واعتماد الألغاز وجدوا سقوطًا حادًا عند زيادة التعقيد، بل وانهارت هذه النماذج. أي كأنك تقول: إن هذه النماذج تحفظ ولا تفهم. وهذه نتيجة مثبتة من أول ظهور محادِثات الذكاء الاصطناعي، لكن الناس لم يلتفتوا إليها حينها، وما هذا إلا لأن الهبّة أغشتهم عنها.
وأذكر لك طرفًا مما جدّ من أبحاث النقد في آخر أربعة أشهر:
• هذه النماذج قد تُحسن التوقع (وهذا بالفعل المعيار الذي تتدرب عليه) لكن توقعاتها ليست منطلقة من معرفة بالعالم الحقيقي والاستنتاج منه وفهم العلائق فيه، بل معرفة سطحية وربط لما وجدته في بيانات التدريب.
• نجاحاتها في مقاييس البرمجة مثل (SWE-Bench) يرجع، ولو جزئيًّا، إلى حفظها للبرامج التي تُختبر عليها في هذه المقاييس. وآية هذا أن أداءها ينقص إذا اُختبرت على برمجيات خارج هذه المقاييس.
• الزعم بأن هذه النماذج تفكر قبل الإجابة تأنيس للآلة لا نفع منه بل الضرر، ومن ذلك ضرر على المستعمل، إذ يزيد تصديقه لها بسببها. في حين أنها آثار إحصائية وتقوية للمُدخلات تنفع الآلة، ولا حاجة إلى تأنيسها وما يتبعه من أضرار لفهمنا لها وتعاملنا معها.
• كلمات التفكير التي تكتبها هذه النماذج قبل الحل ما هي إلا سراب لا ينتفع منه إلا في التوزيعات التي تدربت عليها. أما عند الخروج من هذه التوزيعات تفشل وتهلوس وتخرج كلمات فصيحة لغةً لكن لا معنى لها منطقًا. ونتيجتهم أن النماذج محاكيات لنصوص التفكير، لا التفكير نفسه.
ومن أسباب خفوت الهبّة: اعتياد الناس هذه الأدوات حتى صار وجودها شيئًا بدهيًّا لا يُتعجّب منه. وهذا الاعتياد جعلهم ينظرون إلى الذكاء الاصطناعي نظرة من الواقع وحدوده لا المستقبل وآماله. وهذه سنّة الله في كل تقنية، كلها تبدأ بالهبّة وتحميل المستقبل ما لا يحتمل ثم لمّا يعتادوا عليها ينظرون إليها نظرة الواقع لا الخيال.
وحتى جفري هنتون، عظيم الذكاء الاصطناعي الفائز بنوبل العام الماضي وأحد أكثر الداعين إلى التحوط من الذكاء الاصطناعي، أضحكه حال (GPT-5) وقال إنها خطوة رجعنا بها إلى الوراء، وإن كان لا يزال على رأيه في غلَبة الآلة. وما كل الناس على رأيهم، ففي مواقع التواصل ذكر لأناس غيّروا مواعيد غلبة الآلة بعد ما رأوا حال (GPT-5) وقالوا إنهم ما عادوا يتخوفون من هذه الغلبة القريبة.
وأعجب من هذا كله أن سام ألتمان نفسه خرج قبل أيام في تقرير لـ(CNBC) يقول فيه إن مصطلح الذكاء الاصطناعي العام (AGI) ما عاد بذاك النافع، وأنه مصطلح فضفاض لا يحده حد ولا يضبطه تعريف. وهو نفسه يقول أيضًا إن (GPT-5) ليس الذكاء العام الذي يريده. وذكر أن محادِثات الذكاء الاصطناعي لن تتطور إلا قليلًا. سام ألتمان، الذي استغل التهويل والتخويف بالذكاء الاصطناعي العام، نجده الآن يرضخ للواقع لا الهبّة.
ما بعد الهبّة
الآن وقد بدأت الهبّة بالتلاشي وظهر للناس الذكاء الاصطناعي كما هو عليه، لا كما خُيّل إليهم؛ من يعيد الناس لوظائفهم التي تركوها خوفًا من مبالغات غلبة الآلة؟
من يعيد الطلاب لتخصصات كانوا يريدونها، لكنهم اتبعوا نصيحة من حذرهم من الاستبدال؟
من يعيد الناس إلى آمالهم التي تلاشت لمّا سمعوا من يكرر ويعيد تسويق شركات الذكاء الاصطناعي؟
لذلك، كنت في حلقتي في «فنجان» مع عبدالرحمن أبومالح، أحاول أن أبيّن للناس واقع الذكاء الاصطناعي وواقع استبداله للوظائف. ولا أقول إن الذكاء الاصطناعي لن يكون له أثر في الوظائف، بل إنه لعمري أمر عظيم. وما جاءت تقنية بمثل ما جاء به الذكاء الاصطناعي إلا غيرت حياة الناس ومعاشهم وطرق كسبهم؛ من الكهرباء إلى السيارات إلى الحاسبات إلى الإنترنت، واليوم الذكاء الاصطناعي. لكني ألوم الذين تعجّلوا وقطعوا بالاستبدال، والحق أن القطع يكون بأن الذكاء الاصطناعي سيغير الحال، ولكن ليس لأحد أن يجزم بأن وظيفة أو أخرى ستأخذها الآلة، قطعًا، قريبًا.
والأمر يعظم في حال بلادنا. فبلادنا شابّة في عمر البلدان وتسعى بسواعد أهلها لأن تعتلي من العلم كل ميدان. ولن يكون شيء من هذا إن كان أهل التقنية عندنا يكررون كلام الشركات؛ فيحذرون طلابنا من التخصص في مجالات بلادنا أحوج ما تكون إليها. فلا يستقيم أن تدخل حسابات مؤثري التقنية وتجدهم يزعمون انعدام الحاجة إلى المبرمجين وأهل الحاسب، لأن الذكاء الاصطناعي سيستبدلهم في عامين، ولن تكون لهم حاجة في الوظائف عند التخرج.
ختامًا، فإني أرى العرب والمسلمين أقدر الناس على قيادة مستقبل الذكاء الاصطناعي، وذلك أننا لم نخضع ولم نستهلك منتجات الخيال العلمي كما استهلكه غيرنا. وأن منطلقاتنا وتراثنا وديننا ليست مثلهم، فهم نشؤوا بفلسفاتهم على مفهوم الهيمنة والغلبة والاستبدال. وكل مُهيمن يخشى أن يأتي من يهيمن عليه (غلبة الآلة). أمّا نحن فنشأنا على أن الله سخر لنا الطبيعة وأنه ائتمننا عليها، فالمُلك ملكه ونحن عبيده.
وشتان بين من يرى نفسه مهيمنًا، وبين من يرى نفسه مؤتمنًا. وهذا كله يجعلنا نرى الذكاء الاصطناعي ومستقبله بنظرة صافية تراه كما هو، لا تراه رعبًا يستبدل البشر ويغلبهم ويسيطر عليهم.
في مقالة «هل سيستبدل الذكاء الاصطناعي صنّاع الأفلام؟» المنشورة في النشرة السينمائية، ناقشتُ واقع استبدال الذكاء الاصطناعي لوظائف الفنانين ومستقبله، إلا أنه يمكن تطبيق الأفكار والفرضيّات الواردة فيها على عموم الوظائف، لا الفنية منها وحسب.
المصدر: ثمانية.