المصيبة الحقيقية ليست في أن الذكاء الصناعي “غلطان دائماً”، بل في أن كثيراً من الناس صاروا يتعاملون معه كأنه يملك بصيرة مدير مخضرم، وحدس صاحب مشروع عاش السوق، وخبرة مستشار فاهم تفاصيل البيئة المحلية، بينما الواقع أبرد من هيك بكثير. الذكاء الصناعي قد يعطيك جواباً مرتباً، مقنعاً، ومصاغاً بلغة احترافية جداً، لدرجة تخليك تحس أن القرار صار شبه محسوم. وهنا تبدأ الخطورة فعلاً: ليس عندما يعطيك جواباً عبثياً واضح الخطأ، بل عندما يعطيك جواباً يبدو منطقياً جداً، ويكون خطؤه مخفياً داخل التفاصيل التي لا يراها إلا من عاش الميدان، واحتك بالناس، وفهم الثقافة، وقرأ الإشارات الصغيرة التي لا تُكتب عادة في أي برومبت ولا تظهر في أي قاعدة بيانات.
هذا بالضبط ما يجعل الاعتماد الإداري على مشورة الذكاء الصناعي موضوعاً خطيراً ومش مزح. لأن القرار الإداري ليس مجرد جمع معلومات ثم إخراج “أفضل اقتراح” على الورق. القرار الإداري الحقيقي هو تفاعل معقد بين أرقام، وسلوك موظفين، وسمعة مؤسسة، وطبيعة زبائن، وتوقيت اقتصادي، وحساسية اجتماعية، ومناخ تنافسي، ومخاطر قانونية، وأحياناً حتى اعتبارات سياسية أو مناطقية أو عرفية لا تظهر أصلاً في البيانات. ولهذا السبب، مؤسسات الحوكمة وإدارة المخاطر نفسها تؤكد أن استخدام الذكاء الصناعي في القرار يجب أن يبقى تحت إشراف بشري واضح، لأن تحويل الظواهر الإنسانية والتنظيمية إلى نماذج رقمية قد يجرّدها من السياق الضروري، وهذا فقدان للسياق قبل أن يكون مجرد “نقص معلومة”. (NIST Publications)
لماذا يبدو جواب الذكاء الصناعي ذكياً أكثر مما ينبغي؟
الجواب الذي يخرجه لك النظام اللغوي غالباً يكون مرتباً، سلساً، ومليئاً بثقة أسلوبية عالية. وهذه واحدة من أخطر النقاط في الموضوع. الإنسان بطبيعته يتأثر باللغة الواثقة، خصوصاً إذا كان تحت ضغط، أو مستعجلاً، أو يبحث عن مخرج سريع من ورطة تشغيلية أو تنظيمية. صاحب مطعم عنده مبيعات نازلة، أو مدير شركة يعاني من ضعف إنتاجية، أو مؤسس يحاول يعيد هيكلة فريقه، يدخل يكتب المشكلة بتفاصيل يعتقد أنها كافية، ثم يأتيه الرد كأنه تقرير استشاري من شركة عالمية: “قسّم الوظائف بهذه الطريقة، ألغِ هذا الدور، اعتمد هذا المسار، عدّل قائمة الأسعار، أعد تصميم تجربة العميل، خفّض عدد العاملين في هذه الفترة، ركّز على كذا، وابتعد عن كذا”.
في تلك اللحظة، كثيرون يخلطون بين جودة الصياغة وجودة الحكم. وهذه غلطة قاتلة. لأن الذكاء الصناعي بارع جداً في توليد إجابة تشبه الإجابات الممتازة، لكنه ليس بالضرورة قد بنى هذه الإجابة على معرفة حقيقية خاصة بمؤسستك. هو لا يعرف مطعمك كما تعرفه أنت، ولا يعرف موظفك العنيد الذي يخرّب الجو على الفريق لكنه ماسك مفصل تشغيل حساس، ولا يعرف أن شريحة الزبائن عندك تختلف جذرياً عن شريحة الزبائن التي تظهر في الدراسات الغربية، ولا يعرف أن التسعير في منطقتك يتأثر بكرامة الزبون، أو بعادات الضيافة، أو بحساسية العائلة، أو بثقافة “الاسم أهم من الخصم”، أو بتأثير الحارة والحي والسمعة أكثر من أي معادلة تسويق كلاسيكية.
الذكاء الصناعي هنا لا “يفهم” شركتك بالمعنى الذي نفهمه نحن. هو يستنتج احتمالات لغوية وأنماطاً عامة بناءً على تدريب واسع وعلى المعطيات التي أدخلتها أنت. لكنه لا يملك معايشة داخلية، ولا ذاكرة تنظيمية، ولا خبرة متجذرة في مشهدك المحلي. حتى الأدبيات الإدارية نفسها تنبّه إلى أن كثيراً من القرارات تحتاج شيئاً يتجاوز ما يمكن استخراجه من البيانات وحدها: معرفة بتاريخ المنظمة، وثقافتها، والتقدير الأخلاقي، والخبرة البشرية التي تزن ما بين الصحيح حسابياً وما هو صالح واقعياً. (caseer.academy)
القرار الإداري ليس مسألة “حل صحيح” واحد
واحدة من أكبر الأوهام التي رسخها الاستخدام المتهور للذكاء الصناعي هي أن كل مشكلة إدارية لها حل شبه مثالي، وأن المطلوب فقط هو أن نصف المشكلة جيداً، فيعطينا النظام أفضل جواب. هذا التصور مريح نفسياً، لكنه ساذج جداً. الواقع أن أغلب القرارات التي تمس البزنس والهيكل الإداري والـ workflow المؤسسي ليست مسائل مدرسية. لا يوجد فيها جواب واحد صحيح. يوجد بدائل، وتنازلات، وأثمان خفية، وآثار جانبية، واحتمالات نجاح متفاوتة باختلاف التوقيت والبيئة.
قد يسأله صاحب مؤسسة: هل أعيد هيكلة فريق المبيعات؟ هل أفصل بين خدمة العملاء والمبيعات؟ هل ألغي منصباً وسطياً؟ هل أركز على التوسع أم على تحسين العمليات؟ هل أرفع الأسعار أم أزيد العروض؟ هل أستبدل مدير فرع أم أغير النظام نفسه؟ هذه ليست أسئلة معلوماتية فقط، بل أسئلة حكم، وتقدير، ومسؤولية، وتحمّل تبعات. وهون الفرق بين شخص خبير وشخص مبتدئ: الخبير لا يرى “جواباً”، بل يرى خريطة مخاطر، وتبعيات، ونتائج غير مباشرة، وسيناريوهات ممكنة، ويدرك أن الحل الذي يبدو ممتازاً في أسبوع قد يكون كارثة بعد ثلاثة أشهر.
الذكاء الصناعي، حتى حين يساعد في توليد خيارات، لا يتحمل النتيجة. أنت من يتحملها. مجلس الإدارة يتحملها. المؤسسة تتحملها. والموظفون والزبائن هم من يدفعون ثمنها إن كانت خاطئة. لهذا شددت جهات تنظيمية مثل هيئة الأسواق الأوروبية على أن مسؤولية القرار تبقى على الإدارة حتى لو استُخدمت أدوات ذكاء صناعي من طرف ثالث، وأن على الجهات الإدارية فهم كيفية تطبيق هذه الأدوات ومراقبتها وعدم التذرع بها كبديل عن المسؤولية المهنية. (Reuters)
المثال الذي يفضح الوهم: مطعم محلي يسأل آلة تتكلم بلسان عالمي
خذ مثال المطعم الذي يبدو بسيطاً لكنه في الحقيقة شديد التعقيد. صاحب مطعم في مدينة عربية، أو حتى في حي محدد داخل مدينة عربية، يسأل الذكاء الصناعي: المبيعات تراجعت، الزبائن صاروا أقل، التقييمات متذبذبة، والتكاليف ارتفعت، ما الحل؟ فيأتيه الرد: اختصر المنيو، ارفع متوسط الفاتورة، ركز على الأطباق الأعلى هامشاً، فعّل الولاء الرقمي، اعتمد حملات إعادة الاستهداف، أعد توزيع الورديات، فعّل التسعير الديناميكي، حسّن الـ conversion funnel، وابدأ بتجربة ghost kitchen أو نموذج delivery-first.
على الورق؟ كلام مبهر. وفي بعض الأسواق قد يكون فعلاً ممتازاً. لكن هل هو مناسب لهذا المطعم بالذات؟ هنا تبدأ الحقيقة الثقيلة. لأن المطعم قد يكون قائمًا على “اللمة” لا على سرعة الدوران. وربما زبائنه يربطون جودة المكان بتنوع المنيو لا باختصاره. وربما رفع الأسعار يضرب صورته الذهنية أكثر من أثره المالي الإيجابي. وربما الولاء عند جمهوره ليس رقمياً أصلاً، بل مبني على المعرفة الشخصية والعلاقة المباشرة. وربما نظام التوصيل يسيء إلى منتجه لأن التجربة الأساسية مرتبطة بالسخونة أو العرض أو الجلسة. وربما تقليص الورديات يولّد احتقاناً داخلياً ينعكس على الخدمة أكثر مما يخفّض التكلفة. وربما الحي نفسه تحكمه عادات استهلاك موسمية أو دينية أو عائلية لا تراها النماذج العامة.
المشكلة هنا ليست أن الذكاء الصناعي “كذب” عليك، بل أنه أجابك من مستوى تجريدي أعلى من واقعك. أخذ حالة محلية دقيقة، ثم مررها عبر معرفة عامة واسعة، وعاد إليك بخطة تبدو استراتيجية. لكن الاستراتيجية من دون محلية ليست استراتيجية؛ أحياناً تكون مجرد وهم أنيق.
فقدان السياق: هنا تسقط المؤسسات وهي تظن أنها تتقدم
أخطر ما في القصة كلها هو فقدان السياق. هذا المفهوم يجب أن يُفهم جيداً، لأنه جوهر الخلل. السياق ليس مجرد معلومات إضافية. السياق هو المعنى الذي يجعل نفس القرار ممتازاً في مكان، وسيئاً في مكان آخر، ومدمراً في مكان ثالث. السياق هو الذي يفسر لماذا تنجح سياسة حوافز في شركة وتفشل في أخرى، ولماذا ينفع أسلوب قيادة مع فريق ويكسر فريقاً آخر، ولماذا يكون تخفيض عدد المناصب الإدارية خطوة إصلاحية في مؤسسة، لكنه خطوة فوضوية في مؤسسة ثانية.
إطار NIST لإدارة مخاطر الذكاء الصناعي يلفت بوضوح إلى أن تمثيل الظواهر الإنسانية والاجتماعية في نماذج قابلة للقياس قد يأتي على حساب حذف السياق الضروري، وهذا الحذف نفسه قد يجعل فهم الأثر الفردي والاجتماعي والتنظيمي أصعب بكثير. وهذه ليست ملاحظة فلسفية فقط؛ بل ملاحظة عملية تمس التوظيف، والتقييم، والتسعير، وإدارة الموظفين، واتخاذ القرار في بيئات العمل. وكذلك OECD تشدد على أهمية الإشراف البشري والضمانات الملائمة لسياق الاستخدام، خاصة عندما تُستخدم الأنظمة خارج الغرض المقصود منها أو بطريقة لا تناسب البيئة الفعلية. (NIST Publications)
في البزنس، فقدان السياق ليس تفصيلاً. هو السبب الذي قد يدفع شركة لاتخاذ قرار يبدو “مبنياً على البيانات” بينما هو في الحقيقة مبني على بيانات عامة لا تمثلها كما يجب. وهو السبب الذي يجعل بعض أصحاب العمل يتخذون قرارات خارج نطاق خبرتهم، خصوصاً في الشؤون التقنية أو المالية أو التشغيلية، ثم يكتشفون بعد أسابيع أو أشهر أن ما بدا لهم تنظيماً واحترافاً لم يكن إلا تدويراً للمشكلة أو تعميقاً لها.
لماذا لا يكفي أن تقول: “أنا أعطيته كل المعطيات”؟
كثير من المستخدمين يعتقدون أن المشكلة تُحل إذا كتب برومبت طويلاً جداً. يظن أنه متى ما ذكر الأرقام، وعدد الموظفين، وحجم الفرع، ونوع الزبائن، وبعض الملاحظات التشغيلية، يكون قد سلّم النظام الصورة كاملة. لكن الحقيقة أن الصورة الكاملة في الإدارة لا تُكتب بهذه السهولة. لأن جزءاً ضخماً من المعرفة المؤسسية هو معرفة ضمنية، صامتة، ومتراكمة. معرفة تُفهم من التاريخ، ومن العلاقات، ومن الأحداث السابقة، ومن أخطاء قديمة، ومن شخصيات الأفراد، ومن التوترات المكتومة، ومن البنية غير الرسمية للسلطة داخل المؤسسة.
في أي شركة يوجد دائماً هيكلان لا هيكل واحد: الهيكل الرسمي المكتوب في الأوراق، والهيكل الفعلي الذي يتحرك على الأرض. يوجد مدير يبدو ضعيف الصلاحية على الورق لكنه مؤثر جداً واقعياً. ويوجد موظف لا يحمل منصباً كبيراً لكن خروجه يشلّ العملية. ويوجد إجراء يبدو تافهاً لكنه صمام أمان. ويوجد تقليد داخلي ليس موثقاً لكنه يمنع الانفجار. هذه كلها لا تُختصر في مطالعة نصية ولا تُترجم بسهولة إلى prompt.
وهنا يفشل كثيرون في فهم حدود الآلة. هي لا تستطيع جمع “الكم الهائل من المعلومات الخاصة جداً” تلقائياً عن مؤسستك ما لم تكن هذه المعلومات موجودة أمامها بشكل منظم، وقابلة للفهم، وغير ملتبسة، ومحدثة. وحتى لو وضعتها كلها، يبقى سؤال أعقد: هل تستطيع الآلة أن تزنها كما يزنها قائد خبير يعرف ما يقال وما لا يقال، وما يظهر وما يختبئ، وما يمكن تحمله وما لا يمكن تحمله؟ هنا الجواب في كثير من الحالات: لا، أو على الأقل ليس بالمستوى الذي يسمح لك أن تسلّمها عجلة القرار.
الذكاء الصناعي لا يعيش يومك ولا يدفع ثمن خطئك
من السهل جداً أن تنبهر بقدرة النموذج على ربط أفكار، وتلخيص بدائل، وتقديم سيناريوهات، وحتى إنتاج لغة إدارية تشبه لغة المستشارين. لكن يجب أن نتذكر شيئاً أساسياً: الذكاء الصناعي لا يعيش داخل يومك التشغيلي. لا يواجه المورد المتقلب. لا يسمع شكوى الزبون المنزعج بنبرة صوته. لا يرى ارتباك الموظفين بعد قرار إعادة هيكلة. لا يتحمل موجة الاستقالات. لا يتعرض لضرر السمعة. لا يدخل اجتماعاً دفاعياً أمام مجلس الإدارة لشرح لماذا تدهورت المؤشرات بعد خطة “بدت ممتازة”.
وهذه الفجوة بين من يقترح ومن يتحمل هي من أخطر فجوات الاعتماد المفرط على أدوات الذكاء الصناعي. لأن الأداة تقدم اقتراحاً بلا مسؤولية. أما أنت فتدفع الكلفة كاملة. ولهذا يتزايد الحديث عالمياً عن الحوكمة، والاختبارات، والمراجعة، والإشراف، وضرورة عدم تحويل الذكاء الصناعي إلى سلطة قرار صامتة داخل المؤسسات، خاصة مع تسارع الاعتماد عليه وارتفاع الحوادث المرتبطة به. تقرير Stanford AI Index 2025 أشار إلى تسارع استخدام الشركات للذكاء الصناعي، لكنه أشار أيضاً إلى أن الحوادث المرتبطة بالذكاء الصناعي ترتفع بوضوح، وأن الفجوة لا تزال قائمة بين الاعتراف بالمخاطر واتخاذ إجراءات فعالة لإدارتها. (Stanford HAI)
المشكلة ليست في استخدامه… بل في منحه مقام الخبير الذي لا يخطئ
لا أحد عاقل يقول ابتعد عن الذكاء الصناعي. هذا طرح بدائي فعلاً. الأدوات التي تختصر وقتاً، وتكشف أنماطاً، وتساعد في كتابة وتحليل وتلخيص وتحضير ومقارنة، هي أدوات ثمينة. لكن المشكلة تبدأ عندما يتحول من مساعد إلى مرجعية، ومن شريك تفكير إلى صانع قرار ضمني، ومن أداة توليد خيارات إلى بديل عن الخبرة.
هذا التحول يحصل بهدوء. في البداية تستعمله لتجميع أفكار. بعد ذلك تطلب منه تحليل حالة. ثم يبدأ يعطيك اقتراحات تبدو أذكى من النقاش الداخلي عندك. ثم، شوي شوي، يبدأ عقلك يسلّم له سلطة نفسية: “أكيد هو شايف شيء أنا مش شايفه”. ومن هنا تحديداً تظهر أخطر لحظة في السلسلة كلها، لأنك لم تعد تستخدمه فقط، بل بدأت تستعير منه ثقة ليست مبنية على استيعابك الحقيقي لحدوده.
وهذه الحدود ليست عيباً بسيطاً، بل جزء من طبيعته. بعض النماذج تعلن صراحةً أن لها تاريخ معرفة مقطوعاً عند نقطة زمنية معينة؛ فمثلاً أعلنت OpenAI أن GPT-4.1 لديه cutoff عند يونيو 2024، بينما تذكر Anthropic تواريخ cutoff محددة لنماذجها الحديثة كذلك. معنى هذا أن أي تصور شعبي بأن النموذج “يصحو كل صباح يقرأ الجريدة” هو تصور خاطئ من الأساس، إلا إذا كان النظام مربوطاً تصميماً ببحث مباشر ومصادر حديثة ويتم استخدامها فعلاً في تلك اللحظة. وحتى عندها، يبقى الوصول إلى المعلومة شيئاً، وفهم القرار المحلي وتحمل تبعاته شيء آخر تماماً. (OpenAI)
قبل أن نكمل: أين تبدأ الكارثة فعلياً داخل الشركات؟
الكارثة لا تبدأ حين يسأل الموظف الذكاء الصناعي عن صياغة إيميل أو تلخيص ملف أو اقتراح أفكار تسويقية أولية. هذه استخدامات مفيدة غالباً إذا بقيت تحت المراجعة. الكارثة تبدأ حين يُستخدم لإنتاج قرارات تمس:
الهيكل الإداري
مثل حذف طبقات إشراف، أو إعادة توزيع الصلاحيات، أو دمج وظائف متباينة ظاهرياً لكنها حساسة عملياً.
الـ workflow المؤسسي
مثل تغيير مسار الموافقات، أو أتمتة نقطة اختناق غير مفهومة بالكامل، أو تسريع عملية فيها ضوابط كان الناس يعتبرونها “بطئاً” بينما هي في الحقيقة حماية من أخطاء أكبر.
شؤون الموظفين
مثل تقييم الأداء، أو تحديد من يجب الاحتفاظ به، أو منحه دوراً قيادياً، أو تفسير أسباب تراجع الإنتاجية من غير فهم إنساني عميق لبيئة العمل.
التسعير والتموضع والعلاقة مع السوق
خصوصاً في الأسواق التي تحكمها الثقافة المحلية، والسمعة، والعادات، والتفضيلات غير المعلنة أكثر مما تحكمها النماذج المجردة.
القرارات التي تتأثر بأزمات خارجية
مثل توتر سياسي، تغير مزاج استهلاكي، تذبذب موردين، ضغط قانوني، حساسية مجتمعية، أو أي عامل لا يظهر بوضوح داخل بياناتك لكنه يغيّر معنى القرار كلياً.
المشكلة لا تبدأ عندما يعطيك الذكاء الصناعي جواباً سيئاً بشكل فاضح، لأن هذا النوع من الأجوبة سهل الانكشاف أصلاً. المشكلة الأخطر تبدأ عندما يعطيك جواباً يبدو متماسكاً، ويأتيك بلغة مرتبة، ومنطق واضح، وخطوات منظمة، فتشعر أن عندك “خطة” بينما الذي حصل فعلياً أنك أخذت صياغة ممتازة وفسّرتها على أنها بصيرة تنفيذية. وهون يقع كثير من أصحاب الأعمال والمديرين في فخ ناعم جداً: لا يشعرون أنهم ارتكبوا خطأ، بل يشعرون أنهم اتخذوا قراراً عصرياً، مدعوماً بالتكنولوجيا، ومبنياً على تحليل حديث. لكن بعد فترة، تبدأ النتائج الحقيقية تطلع من تحت السطح.
الخطأ الإداري القاتل: الخلط بين الجواب المقنع والقرار الصحيح
القرار الصحيح ليس القرار الذي يبدو ذكياً عند قراءته أول مرة، بل القرار الذي يصمد عندما يدخل أرض الواقع ويحتك بالبشر، والمال، والوقت، والمقاومة الداخلية، وتفاصيل التشغيل، وردود فعل السوق. كثير من الاقتراحات التي يولدها الذكاء الصناعي تكون ممتازة كنقطة بداية، لكن تتحول إلى عبء ثقيل إذا استعملتها كأنها حكم نهائي. السبب ببساطة أن الذكاء الصناعي يستطيع أن يرتب الأفكار، ويقارن أنماطاً، ويستحضر ممارسات شائعة، لكنه لا يعيش معك التعقيد التنفيذي اليومي الذي يحدد هل القرار صالح فعلاً أم لا.
لهذا مثلاً، تقارير الحوكمة وإدارة المخاطر لا تتعامل مع الذكاء الصناعي كـ“حكيم رقمي” يفتي للمؤسسة بما يجب أن تفعل، بل كأداة يجب أن تُدار ضمن إطار حوكمة وقياس ومراجعة ومراقبة مستمرة للمخاطر. NIST تحديداً تطرح الموضوع بهذه اللغة تقريباً: الذكاء الصناعي التوليدي يجب أن يُحكم ويُقاس وتُدار مخاطره ضمن عمليات العمل، لا أن يُترك كقوة اقتراح مستقلة فوق خبرة المؤسسة نفسها. (NIST Publications)
وهذا الكلام ليس تنظيراً أكاديمياً فقط. لأن الشركات فعلاً تتكلف عندما تستعمل أدوات الذكاء الصناعي من دون نضج كافٍ أو من دون ضوابط. رويترز نقلت عن مسح لـ EY شمل 975 مسؤولاً عن الذكاء الصناعي في شركات عالمية كبيرة أن الخسائر الأولية المجمعة المرتبطة بنشر الذكاء الصناعي وصلت إلى نحو 4.4 مليار دولار، مع أسباب متكررة مثل فشل الامتثال، والمخرجات المعيبة، والانحياز، واضطراب أهداف الاستدامة. (Reuters)
كيف يتحول “الاقتراح الممتاز” إلى غلطة موجعة بعد أشهر؟
أخطر شيء في القرارات الإدارية الخاطئة أنها كثيراً ما لا تنهار في يومها الأول. بالعكس، أحياناً تمرّ أول أسبوعين أو أول شهر بشكل يوحي أن القرار ناجح. وهذا بالذات ما يخدع الناس. لأن بعض القرارات لا تُقاس بنتيجتها الفورية، بل بأثرها التراكمي. قد تقرر مثلاً تقليص طبقة إشراف في المطعم أو الشركة بناءً على نصيحة تقول إن “تقليل البيروقراطية يزيد السرعة ويخفض التكلفة”. على الورق؟ ممتاز. في أول أسبوع؟ الكل متحمس. في أول شهر؟ قد تشعر أن الصرف انخفض فعلاً. لكن بعد ذلك تبدأ الأعراض التي لم يحسبها الرد الجاهز: تضارب صلاحيات، تآكل الانضباط، تضخم الأخطاء الصغيرة، إحساس الموظفين بالضياع، تعطل القرارات الرمادية التي كانت تُحل بالخبرة، ثم تبدأ المؤسسة تدفع ثمن شيء لم يكن مكتوباً في الخطة.
وهنا يجب أن نفهم أن كثيراً من الأذى الإداري لا يأتي من قرار “غلط 100%”، بل من قرار نصف صحيح في التوقيت الخطأ، أو في البيئة الخطأ، أو من دون شروط النجاح الحقيقية. OECD حين تتكلم عن الحوكمة الاستراتيجية للذكاء الصناعي، تؤكد على ضرورة الأخذ بالأنظمة المترابطة، ووضع guardrails، والاعتماد على الشفافية والمساءلة والتقييم المستمر، لأن العمل بالذكاء الصناعي داخل المؤسسات لا ينفصل عن السياق والتنظيم والمخاطر المحيطة به. (OECD)
بمعنى أوضح: القرار الذي يقترحه لك النظام قد يكون نظيفاً على مستوى النظرية، لكنه لا يخبرك ما إذا كانت مؤسستك مهيأة له. لا يخبرك هل الناس عندك أصلاً قادرون على تحمّل التغيير، ولا هل في ثقافة داخلية تسمح به، ولا هل البيانات التي بني عليها التحليل تمثل الواقع فعلاً، ولا هل عندك خط رجعة لو فشل، ولا هل الزبون المحلي سيفسر التغيير كما تفسره أنت.
الذكاء الصناعي يختصر التفكير أحياناً… وهنا تكمن الورطة
بصراحة، في جانب نفسي مهم كثيراً في الموضوع. المدير المرهق، أو صاحب العمل المضغوط، أو المسؤول الذي يشعر أن عنده عشر جبهات مفتوحة، غالباً لا يبحث عن “معلومة” فقط؛ هو يبحث عن راحة ذهنية. يريد أحداً يلملم له الفوضى ويقدم له إطاراً واضحاً. الذكاء الصناعي يفعل هذا بشكل مغرٍ جداً. يأخذ مشكلة متشعبة، ويعيدها لك على هيئة محاور، أولويات، توصيات، ومخاطر. أنت ترتاح. وتحس أن الضباب انقشع. لكن أحياناً ما حدث ليس انقشاعاً للضباب، بل إعادة ترتيب للضباب في شكل جميل.
وهنا تظهر مشكلة أخطر: أن الذكاء الصناعي لا يكتفي أحياناً بمساعدتك على التفكير، بل يبدأ، من حيث لا تشعر، بتقصير المسافة بينك وبين القرار. بدل أن تقول “هذا رأي أولي يحتاج تمحيص”، تبدأ تقول “هذا منطق ممتاز، خلينا نمشي فيه”. هذه النقلة النفسية أخطر من أي limitation تقني، لأنها تجعل الإنسان يسلّم عقله التنفيذي تدريجياً لجواب خارجي فقط لأنه منظم وواثق.
تقارير McKinsey عن استخدام الذكاء الصناعي في العمل تلفت النظر إلى نقطة قريبة من هذا المعنى: الشركات كلها تقريباً تستثمر في الذكاء الصناعي، لكن نسبة صغيرة جداً تعتبر نفسها ناضجة فعلاً في دمجه داخل workflows وتحقيق نتائج جوهرية منه، بينما يظل العائق الأكبر في القيادة والتوجيه والتنفيذ وليس في حماس الموظفين أو وجود التقنية بحد ذاتها. بعبارة ثانية: الأداة موجودة، لكن القيادة كثيراً ما لا تزال تتصرف معها إما بحماس زائد أو بفهم ناقص. (McKinsey & Company)
القرارات التي تمس البشر أخطر بكثير من القرارات التي تمس الورق
دعنا نكون واضحين: ليس كل استخدام للذكاء الصناعي في الإدارة بنفس الخطورة. إذا استعملته في تلخيص تقارير، أو ترتيب اجتماع، أو اقتراح مسودات أولية، فهذه مساحة أقل حساسية إذا بقيت تحت المراجعة. لكن عندما يدخل في القرارات التي تمس الناس مباشرة، هنا يرتفع منسوب الخطر بشكل كبير جداً. لأن البشر ليسوا صفوفاً في جدول، ولا متغيرات ثابتة، ولا وحدات إنتاج متشابهة.
عندما تسأل الذكاء الصناعي مثلاً: من الموظفين الذين يمكن الاستغناء عنهم؟ من الذي يستحق الترقية؟ كيف أعيد توزيع الصلاحيات؟ هل ألغي هذا المنصب؟ كيف أتعامل مع انخفاض أداء هذا الفريق؟ هنا أنت لا تسأله عن معلومة، بل عن حكم على منظومة إنسانية. ومنظومات البشر فيها أمور لا تقرأ من الأرقام وحدها: الولاء، التأثير غير الرسمي، المعرفة التراكمية، السُمعة الداخلية، القدرة على امتصاص الأزمات، أثر الغياب، أثر الظلم، أثر التفضيل، أثر الجرح المعنوي، وحتى أثر الإحساس العام داخل المؤسسة بأن القيادة لم تعد تفهمهم.
كم من موظف يظهر في المؤشرات أنه عادي، لكنه في الحقيقة حجر أساس؟ وكم من شخص يبدو “مرهقاً أو بطيئاً” بينما هو الذي يحمل طبقة حماية كاملة ضد الانهيار؟ وكم من منصب يبدو شكلياً، لكنه في الحقيقة نقطة توازن بين أقسام متوترة؟ هذه أمور لا تُقرأ من وصفك السريع للحالة، ولا من معادلات عامة، ولا من أمثلة مأخوذة من شركات عالمية تعمل في بيئات مختلفة كلياً.
ولهذا السبب بالضبط، المؤسسات التي تتعامل مع الذكاء الصناعي بنضج لا تتركه يبتّ في أمور الناس مباشرة، بل تستخدمه لتجهيز بدائل وتحليل أولي، ثم تعيد الأمر إلى من يفهم البشر، والسياق، والتاريخ، ومزاج المؤسسة. لأن أي قرار يمس البشر قد يولّد آثاراً ثانوية لا تظهر في التقرير، لكنها تضرب الثقة، والاستقرار، والانتماء، والروح العامة.
في البزنس المحلي، “التوصية العامة” قد تكون وصفة تخريب مغلّفة باحتراف
عند كثير من المؤسسات العربية، خصوصاً المشاريع المتوسطة والصغيرة، يقع سوء الفهم الأكبر عندما يأخذ صاحب المشروع من الذكاء الصناعي توصية تبدو حديثة جداً، ويبدأ بتطبيقها كأنها وصفة عالمية للنجاح. مثل أن يُقنعه النظام بضغط قائمة الخدمات، أو نقل الصلاحيات، أو تسريع الأتمتة، أو تقليل عدد الموظفين في أوقات معينة، أو استبدال أسلوب الخدمة التقليدي بأسلوب أكثر “كفاءة”، أو توجيه التسويق بشكل مختلف، أو رفع الأسعار بناءً على تحسين متوسط الفاتورة.
هذا النوع من التوصيات قد يكون سليماً جداً في بيئة معينة. لكن في بيئة أخرى قد ينسف جوهر المشروع نفسه. لأن كثيراً من الأعمال المحلية لا تعيش فقط على الكفاءة، بل على الإحساس، والثقة، والعلاقة، والمرونة، وكرامة التعامل، وخصوصية السوق. في بعض الأسواق، الزبون لا يشتري المنتج وحده، بل يشتري الأسلوب، والجو، والدفا، والاعتياد، والشعور أن المكان “إله ناسه”. فلو أخذت اقتراحاً شديد العقلانية من الذكاء الصناعي وطبّقته حرفياً، قد تجد أنك حسّنت شيئاً على الورق وكسرت الشيء الحقيقي الذي كان يجلب لك الزبون من الأساس.
هنا تصبح المشكلة مضاعفة، لأنك لا ترى الخلل فوراً. الأرقام قد تبقى ساكنة قليلاً، أو تتذبذب بطريقة لا تفضح السبب مباشرة. ثم بعد فترة يبدأ الزبون يبتعد بهدوء، أو تقل العودة، أو يضعف الانطباع، أو يبرد الحماس، أو تكثر الشكاوى غير المباشرة، أو تتراجع جودة التنفيذ لأن الفريق لم يهضم التغيير. وهكذا تكتشف بعد أشهر أن القرار الذي “كان يبدو احترافياً” كان في الحقيقة قطعة تنظير عامة نزلت على أرض لا تشبه فرضياتها.
أكبر وهم: أنك حين تكتب التفاصيل كلها تكون نقلت الواقع فعلاً
واحدة من أكثر الجمل التي تتكرر في هذا النوع من القرارات: “لكن أنا فعلاً أعطيته كل المعطيات”. المشكلة أن من يقول هذه الجملة يظن أن المعطيات هي ما يمكن كتابته. بينما جزء كبير من الحقيقة الإدارية أصلاً لا يُكتب بسهولة. يوجد فرق بين data و reality. البيانات شيء، والواقع شيء آخر. البيانات قد تقول إن فرعاً ما أقل ربحية من فرع آخر. لكن الواقع قد يكون أن هذا الفرع هو بوابة السمعة، أو نقطة الظهور، أو مركز النفوذ في منطقة حساسة، أو مساحة نفاذ إلى شريحة مختلفة. البيانات قد تقول إن موظفاً ما تكلفته عالية. لكن الواقع قد يكون أنه صمام أمان، أو ذاكرة تشغيلية، أو عنصر تهدئة داخل فريق متوتر.
حتى في الجهات العامة والأنظمة الكبرى، OECD تشدد على أن الذكاء الصناعي يحتاج إلى enablers وguardrails ومشاركة أصحاب المصلحة وفهماً للمنظومة الأكبر، لا مجرد استعمال تقني مباشر. الفكرة ببساطة أن جودة القرار لا تأتي من وجود “جواب”، بل من جودة النظام الذي يقيّم هذا الجواب ويضعه في سياقه الصحيح. (OECD)
لذلك، كل صاحب عمل يظن أنه اختصر الواقع كله في prompt طويل، لازم ينتبه: ربما أنت نقلت جزءاً من الصورة، لكنك لم تنقل الأشياء التي يعرفها فقط من عاش المؤسسة من الداخل. لم تنقل المزاج، ولم تنقل العلاقات المتشابكة، ولم تنقل ماضي القرارات السابقة، ولم تنقل نقاط الحساسية، ولم تنقل حدود الاحتمال النفسي عند الفريق، ولم تنقل كيف سيفهم السوق المحلي هذا التغيير. هذه كلها ليست حواشٍ؛ هذه هي صلب المسألة.
لماذا تصبح الإدارة أخطر حين تستخدم الذكاء الصناعي خارج نطاق خبرتها؟
لأن الذكاء الصناعي يعطي غير المختص شعوراً مقلقاً بالقدرة. وهذه من أخطر المسائل على الإطلاق. الشخص غير الخبير حين يسأل في موضوع خارج مجاله، ويأتيه جواب مرتب، يبدأ يشعر أن المسألة أصبحت “واضحة”. بينما المختص الحقيقي، كلما تعمق في مجال ما، زاد إدراكه للتعقيد، وللشواذ، وللشروط، وللمخاطر التي لا يراها غيره.
لهذا قد تجد صاحب عمل لم يدرس التقنية بعمق، أو لا يفهم المحاسبة فعلياً، أو لا يعرف سلوك السوق إلا من الخارج، يبدأ يتخذ قرارات كبيرة في هذه المساحات بناءً على ردود ذكاء صناعي شكلها احترافي. القرار يبدو ذكياً، بل أحياناً يُقال داخل الاجتماع بلغة قوية جداً، فيقتنع من حوله أنه “مدروس”. لكن بعد التنفيذ تظهر الحقيقة: ليس لأنه كان قراراً مجنوناً، بل لأنه كان قراراً فوق مستوى فهم صاحبه لسياقه الحقيقي.
وهنا نرجع لنقطة McKinsey المهمة: المشكلة ليست فقط في وجود الأداة، بل في القيادة التي لا تزال غير ناضجة كفاية لدمجها بشكل مسؤول داخل العمل. الاستثمار شيء، والنضج التشغيلي شيء آخر. والقيادة حين لا تملك هذا النضج قد تستخدم الذكاء الصناعي لتوسيع دائرة الخطأ بدل تضييقها. (McKinsey & Company)
ليست كل الخسائر مالية مباشرة… وبعضها أسوأ من المال
حين نتكلم عن خسائر القرارات المبنية على الذكاء الصناعي، لا يجب أن نحصر الموضوع في “كم خسرنا نقداً”. أحياناً الخسارة الحقيقية تكون في الوقت، وفي تشتيت المؤسسة، وفي تآكل الثقة، وفي استنزاف الفريق، وفي التردد الناتج عن كثرة التغييرات غير الناضجة، وفي تشويه صورة الإدارة نفسها. رويترز نقلت أن الخسائر المباشرة في مسح EY ارتبطت بأمور مثل الامتثال والمخرجات المعيبة والانحياز، لكن حتى هذا لا يلتقط كل الأثر غير المباشر الذي قد يبقى داخل المؤسسة فترة طويلة. (Reuters)
وهناك بعد آخر أيضاً: حين تعتمد على الذكاء الصناعي في التوصية والقرار أكثر من اللازم، قد تتراجع لديك أنت شخصياً عضلة الحكم. تبدأ تميل إلى طلب الرد الجاهز بدل بناء الفهم، وتستعجل الخلاصة بدل تحمل عناء التشخيص، وتطلب الحل قبل أن تنضج الرؤية. ومع الوقت، هذه ليست فقط مشكلة قرار واحد، بل مشكلة قيادة كاملة تفقد تماسها الطبيعي مع الواقع.
ما الذي يجعل الغلطة “قاتلة” فعلاً على المدى المتوسط؟
الغلطة تصبح قاتلة عندما تضرب شيئاً كان يبدو ثانوياً لكنه في الحقيقة كان أساسياً. مثلاً:
عندما تقتل المرونة باسم التنظيم
فتحوّل المؤسسة إلى آلة جامدة، وتفقد القدرة على التعامل مع الحالات الرمادية.
عندما تضعف الثقة باسم الكفاءة
فتصبح القرارات “منطقية” لكن الناس لم تعد تؤمن بالقيادة.
عندما تخفّض التكلفة وتفتح باب فوضى أكبر
فتربح شيئاً بسيطاً الآن وتدفع أضعافه لاحقاً في إعادة الترتيب، والتصحيح، والتوظيف، والإطفاء.
عندما تسرّع الإجراء وتضرب الجودة
فتربح دقائق وتخسر السمعة.
عندما تعيد توزيع الصلاحيات بطريقة تبدو ذكية
لكنها عملياً تخلق مناطق رمادية لا أحد يتحمل مسؤوليتها بالكامل.
كل هذه ليست سيناريوهات مبالغاً فيها. بل هي الشكل الواقعي الذي تظهر فيه أخطاء الاعتماد الساذج على مشورة تبدو استراتيجية بينما هي في الأصل عامة ومجردة. ولهذا من الخطر أن تتعامل مع الذكاء الصناعي على أنه “خبير خارجي مجاني” يفهم كل شيء. هو ليس كذلك. هو أداة قوية، نعم. لكن قوته في المساعدة على التفكير، لا في إعفائك من عبء الحكم.
الاستعمال الذكي للذكاء الصناعي لا يبدأ من سؤال: “ما القرار الذي تقترحه؟”، بل من سؤال أدق بكثير: في أي جزء من هذه المسألة يحق له أن يساعدني، وفي أي جزء يجب أن يتوقف؟ هنا بالضبط يظهر الفرق بين مؤسسة تستخدم الأداة بوعي، ومؤسسة تسلمها مفاتيح التفكير التنفيذي من دون ما تنتبه. لأن الذكاء الصناعي ليس المشكلة بحد ذاته، بل المشكلة في المنصب الذي نعطيه له داخل عقولنا وداخل مؤسساتنا. إذا وضعته في مكان “المساعد التحليلي”، فقد يختصر عليك وقتاً ثميناً. وإذا رفعته إلى مرتبة “الخبير الذي يرى ما لا نراه”، فقد يصبح سبباً في قرارات شكلها أنيق ونتيجتها موجعة.
كيف تستخدم الذكاء الصناعي داخل البزنس من دون أن تسلمه القيادة؟
أول قاعدة لازم تكون واضحة كالشمس: الذكاء الصناعي يحق له أن يساعدك في توليد الخيارات، لكن لا يحق له وحده أن يحسم الاختيار النهائي. الفرق بين الاثنين كبير جداً. توليد الخيارات يعني أن يوسّع لك مساحة التفكير، يلفت نظرك إلى بدائل ربما لم تكن حاضرة في ذهنك، يصيغ سيناريوهات، يرتب مزايا وعيوب، ويكشف لك أسئلة ناقصة في تشخيصك. أما الاختيار النهائي، فهذا يدخل في منطقة المسؤولية، والسياق، والمفاضلة بين أثمان مختلفة، وهذه أمور لا تُفوَّض لآلة لغوية مهما كانت قوية.
المؤسسات الأكثر نضجاً في التعامل مع الذكاء الصناعي لا تبني قيمته على فكرة “خلّيه يقرر بدلنا”، بل على فكرة “خلّيه يرفع جودة النقاش قبل القرار”. وهذه الفكرة منسجمة مع أطر الحوكمة الحديثة. NIST مثلاً لا تقدم الذكاء الصناعي التوليدي كسلطة قرار، بل كشيء يجب أن يُحكم ويُدار ضمن وظائف واضحة: الحوكمة، والخرائط، والقياس، والإدارة، وبما يراعي تحمل المخاطر والأهداف والمتطلبات التنظيمية. وOECD تكرر الفكرة نفسها من زاوية أخرى حين تتحدث عن ضرورة وجود enabling conditions وguardrails وآليات إشراك ومساءلة لضمان استخدام استراتيجي وجدير بالثقة، لا استخدام متهور مدفوع بانبهار التقنية. (NIST Publications)
بالمعنى العملي، هذا يعني أن الذكاء الصناعي يجب أن يدخل عندك على شكل مستشار تمهيدي، لا مدير ظلّ. يساعِد، نعم. يدفعك للتفكير، نعم. ينظم لك فوضى الأفكار، نعم. لكن لا يصبح المرجعية العليا التي تُبنى عليها قرارات تمس هيكل الشركة، أو توزيع السلطة، أو تسريح الناس، أو تغيير تموضع المطعم أو المتجر أو الخدمة في السوق.
متى يكون مفيداً جداً… ومتى يجب أن يتوقف فوراً؟
يفيد جداً عندما تكون المشكلة محدودة النطاق، ويمكن تعريفها بدقة، وتستطيع اختبار مخرجاته بسرعة، أو عندما يكون المطلوب منه عملاً تحضيرياً لا تنفيذياً. مثل أن تطلب منه إعادة صياغة إجراءات داخلية، أو تلخيص مقابلات العملاء، أو اقتراح زوايا لتحليل سبب انخفاض المبيعات، أو مقارنة نماذج تشغيل، أو بناء أسئلة تحقق، أو ترتيب فرضيات، أو مساعدة أولية في صياغة خطة تجربة. في هذه المساحات، الأداة قد تكون ممتازة لأنها تختصر الوقت، وتفتح زوايا، وتخفف عبء البداية.
لكن يجب أن يتوقف فوراً عندما تدخل المسألة في قرارات من نوع: من نفصل ومن نبقي؟ كيف نعيد هيكلة السلطة؟ من يستحق الترقية؟ هل نغيّر سياسة الأسعار جذرياً؟ هل نحذف قسمًا كاملاً؟ هل نعيد تصميم الـ workflow في نقطة حساسة من غير فهم كامل لتبعياتها؟ هل نرد على أزمة سمعة أو أزمة سياسية أو ظرف اجتماعي حساس؟ هنا الذكاء الصناعي لا يملك الأهلية الكافية ليكون مرجعاً. ليس لأنه “غبي”، بل لأن طبيعة السؤال أصلاً تتجاوز حدود الأداة.
وإذا نظرنا إلى الواقع المؤسسي الأوسع، فالصورة نفسها تظهر بوضوح: الشركات تستثمر بقوة في الذكاء الصناعي، لكن النضج الحقيقي في التطبيق لا يزال محدوداً جداً. McKinsey أشارت في تقرير 2025 إلى أن 1% فقط من قادة الشركات وصفوا rollouts الخاصة بالذكاء الصناعي التوليدي عندهم بأنها “ناضجة” فعلاً، أي أنها غيّرت طريقة العمل جذرياً وحققت نتائج أعمال جوهرية. هذا رقم مهم، لأنه يقول لنا شيئاً بسيطاً: الحماس العام أسرع من النضج التنفيذي. (McKinsey & Company)
القاعدة الذهبية: لا تطلب منه “قراراً” بل اطلب منه “تفكيك القرار”
هذه واحدة من أنفع الطرق العملية. بدل أن تقول له: “شو أعمل؟”، قل له: “فكك لي هذه المسألة”. اطلب منه أن يحدد الافتراضات المخفية، والمخاطر القصيرة والمتوسطة، والاحتمالات التي قد تجعل التوصية تفشل، والسيناريو المعاكس، وما المعلومات الناقصة التي لو توفرت لتغير الحكم. بهذه الطريقة أنت لا تجعله حاكماً، بل أداة تشخيص ومساءلة.
مثلاً، لو كنت صاحب مطعم وتفكر بتقليص المنيو أو رفع الأسعار أو إعادة توزيع الشفتات، لا تطلب منه أن يمنحك الضوء الأخضر. اطلب منه أن يعطيك: ما الفرضيات التي تجعل هذه الخطوة منطقية؟ ما العلامات التي تقول إنها ستفشل؟ ما الاختبارات الصغيرة التي يمكن إجراؤها قبل التعميم؟ ما أثرها المحتمل على الانطباع والسلوك وتكرار الزيارة؟ ما البدائل الأقل خطورة؟ هنا أنت تستفيد من قوته من دون أن تتورط بسذاجة “القرار المعلّب”.
هذه الطريقة ترفع أيضاً جودة الإدارة عندك أنت. لأنها تجبرك على رؤية القرار كمنظومة شروط ومخاطر لا كجملة نهائية. والجميل هنا أن الذكاء الصناعي فعلاً قوي في فتح مسارات النقاش، لكنه ليس قوياً بالقدر نفسه في تحمل كلفة الحسم داخل واقع محلي معقد.
لا يوجد AI من دون مالك بشري واضح للمخاطرة
واحدة من أكبر المشاكل داخل الشركات أن الجميع يحب الاقتراح، لكن عند وقوع الضرر لا أحد يحب الاعتراف بملكيته. لذلك، أي استخدام جدي للذكاء الصناعي داخل مؤسسة يجب أن يرتبط بشخص أو جهة تتحمل مسؤولية السؤال، وجودة المدخلات، وقرار الاعتماد، ونتيجة التنفيذ. إذا لم يوجد “owner” بشري واضح، فغالباً أن المؤسسة لا تستخدم الذكاء الصناعي، بل تتخفى وراءه.
هذا ليس تشدداً. هذا من صميم الحوكمة. NIST AI RMF 1.0 مبني أصلاً على منطق أن المخاطر لا تُدار عبر النموذج فقط، بل عبر المؤسسة، والعمليات، وتوزيع المسؤوليات، ودمج الحوكمة والقياس والإدارة في دورة العمل نفسها. وStanford AI Index 2025 تشير إلى أمر مقلق ومهم في آن معاً: الحوادث المرتبطة بالذكاء الصناعي ترتفع بوضوح، بينما التقييمات المسؤولة المعيارية لا تزال نادرة عند كثير من مطوري النماذج الكبار، كما أن هناك فجوة بين اعتراف الشركات بالمخاطر وبين اتخاذ إجراءات فعالة حيالها. (NIST Publications)
لهذا، إذا لم تستطع أن تقول داخل شركتك: “من الذي راجع هذا؟ من الذي اختبره؟ من الذي وافق على اعتماده؟ ما معيار النجاح؟ وما خط الرجعة؟” فأنت لا تدير أداة، بل تترك باباً مفتوحاً للفوضى.
اختبر على نطاق ضيق قبل أن تغيّر المؤسسة
من أكبر الأخطاء أن يؤخذ اقتراح مولد بالذكاء الصناعي ويُطبَّق دفعة واحدة على المؤسسة كلها. هذا تهور، حتى لو كان الاقتراح ممتازاً. الطريق الصحيح هو أن تتعامل مع التوصية كفرضية، لا كحقيقة. أي تغيير يمس workflow أو تسعير أو هيكلة أو توزيع صلاحيات يجب أن يمر عبر اختبار محدود، وقياس واضح، ومراجعة، ثم توسعة تدريجية إن أثبت نفسه.
هذا المنطق ليس فقط عقلانياً، بل هو أقرب لما تفرضه تقارير النضج المؤسسي نفسها. OECD تتكلم عن ضرورة enablers وguardrails وآليات engagement للوصول إلى استخدام استراتيجي وجدير بالثقة، لا إلى قفزات غير محسوبة. وحتى تقارير السوق والاستشارات الكبيرة تعكس الفكرة نفسها بصورة أخرى: كثير من الشركات ما تزال في طور التجريب أو التوسع غير المكتمل، لا في طور النضج الكامل. (OECD)
في اللغة اليومية: لا تهز المؤسسة كلها لأن روبوت أعطاك جواباً حلو. جرّب على نقطة صغيرة. راقب. قِس. افهم أثر القرار على الناس والجودة والزمن والرضا والانضباط. وبعدها قرر.
مشكلة “الداتا الحديثة” ليست تفصيلاً صغيراً
كثير من الناس يتعامل مع الذكاء الصناعي وكأنه حاضر دائماً في قلب اللحظة. وهذا غير صحيح على إطلاقه. النماذج تختلف في حداثة معرفتها، وبعض الشركات تنشر تواريخ واضحة لما يسمى knowledge cutoff. OpenAI ذكرت مثلاً أن GPT-4.1 لديه cutoff عند يونيو 2024، بينما Anthropic تذكر في Transparency Hub أن بعض نماذج Claude الحديثة لها cutoff في 2025، مع اختلافات بين نموذج وآخر. هذا وحده كافٍ لنسف أي تصور ساذج بأن “كل شيء عنده طازج ومحدث تلقائياً” في كل مرة. (OpenAI)
لكن حتى لو تجاوزنا هذه النقطة، وربطت النظام بالويب، أو أعطيته مستندات حديثة، أو أضفت له بيانات جديدة، تبقى المشكلة الأكبر قائمة: الحداثة لا تساوي الفهم المحلي. قد تكون المعلومة حديثة فعلاً، لكن القرار ما يزال خاطئاً لأن السياق ناقص، أو لأن المعلومات الخاصة بمؤسستك غير مكتملة، أو لأن التقدير الإنساني غير قابل للاختزال في نص أو جدول. لذلك لا يكفي أن تقول: “النظام عنده إنترنت” أو “النموذج أحدث من قبل”. المسألة أعمق من مجرد تاريخ البيانات.
لا تسأله عن مصير الناس كما تسأله عن صياغة إيميل
هذه من أهم الجمل التي يجب أن تعلق في ذهن أي مدير أو صاحب عمل. هناك فرق أخلاقي وعملي وإنساني هائل بين أن تستخدم الذكاء الصناعي لمساعدة أولية في تنظيم تقرير، وبين أن تستخدمه لتقدير من يبقى ومن يرحل، ومن يترقى ومن يتراجع، ومن يُعتبر عبئاً ومن يُعتبر قيمة. كل قرار يمس البشر بشكل مباشر يحتاج طبقة أعلى من الفهم، والمسؤولية، والمراجعة، والتواضع أيضاً.
لأن الخطأ هنا لا يضرب فقط الأرقام، بل يضرب العدالة، والثقة، والولاء، وسمعة القيادة داخل المؤسسة. وبعض هذه الأضرار لا يظهر في dashboard أصلاً. يظهر في البرود، في الانسحاب الصامت، في انهيار الروح، في تراجع المبادرة، في خوف الناس من الظلم، وفي شعورهم أن الإدارة لم تعد ترى الإنسان بل فقط “output”. هذه المساحات ليست مساحة نموذج لغوي، مهما بدا كلامه مهذباً وذكياً.
الخسائر الحقيقية تبدأ عندما تغيب الضوابط لا عندما تظهر التقنية
الناس أحياناً تنشغل بسؤال: هل الذكاء الصناعي مفيد أم ضار؟ بينما السؤال الأدق: ما الذي يحدث عندما نستخدمه بلا ضوابط؟ هنا الأرقام المنشورة علناً نفسها تعطينا إشارة قوية. مسح EY العالمي الذي نُشرت نتائجه في 2025 أظهر أن 99% من المنظمات المشمولة التي واجهت مخاطر متعلقة بالذكاء الصناعي أبلغت عن خسائر مالية، مع متوسط خسارة مقدّر بنحو 4.4 مليون دولار لدى المنظمات المتضررة، وكانت المخاطر الأكثر شيوعاً مرتبطة بعدم الامتثال، والتأثيرات السلبية على أهداف الاستدامة، والمخرجات المنحازة. رويترز نقلت هذه النتائج أيضاً بصيغة تؤكد أن الخسائر المجمعة المرتبطة بالمخاطر وصلت إلى مليارات الدولارات. (EY)
المغزى هنا ليس التخويف، بل وضع النقاش في مكانه الصحيح: الذكاء الصناعي لا يصبح خطراً لأن فيه سحراً أسود، بل لأنه يدخل أحياناً إلى مؤسسات غير مهيأة له، أو إلى قادة يريدون منه أن يغطي فجوات فهم لا أن يسرّع عملاً مدروساً. وعندما تجتمع الرغبة في الحلول السريعة مع غياب الضوابط، تكون الكلفة غالباً أكبر بكثير من الفائدة المتخيلة.
الخلاصة
الذكاء الصناعي ليس عدواً للإدارة، لكنه أيضاً ليس بديلاً عن العقل الإداري. هو أداة قوية جداً عندما يُستخدم في مكانه الصحيح: لتحضير، وتفكيك، ومقارنة، وفتح زوايا، وتوفير وقت، ورفع جودة النقاش. لكنه يصبح خطيراً عندما يتحول إلى مرجعية خفية تُشرعن قرارات حساسة لا يملك شروط فهمها كاملة.
القرار الإداري، خصوصاً في البزنس، لا يُبنى فقط على معلومات عامة، ولا على صياغة جميلة، ولا على اقتراح يبدو استراتيجياً. يُبنى على خبرة، وسياق، ومحلية، وتاريخ، وفهم للبشر، وقدرة على قراءة ما لا يظهر في السؤال نفسه. الذكاء الصناعي قد يساعدك في رؤية جزء من الصورة، لكنه لا يرى وحده الصورة كلها. وقد يلفت انتباهك إلى احتمال مهم، لكنه لا يملك الحق أن يحمل بدلاً عنك عبء الحكم.
وأخطر ما في المسألة ليس أن تتلقى جواباً خاطئاً، بل أن تتلقى جواباً يبدو صحيحاً جداً، فتطبقه بثقة، ثم تكتشف بعد أشهر أن الضرر لم يكن في الجواب وحده، بل في أنك رفعت أداة عامة إلى مقام خبير يعرف مؤسستك أكثر مما يعرفها أهلها. هنا تصبح التكنولوجيا، بدل أن تكون دعماً للقرار، مجرد طريقة حديثة لارتكاب غلطة قديمة: الاعتماد على من لا يعيش الواقع كي يحكم في مصيره.
مراجع
NIST AI RMF 1.0 — الإطار المرجعي لإدارة مخاطر الذكاء الصناعي، ويعرض وظائف الحوكمة والخرائط والقياس والإدارة كقواعد أساسية للتعامل المسؤول مع الذكاء الصناعي. (NIST Publications)
NIST Generative AI Profile (AI 600-1) — يوضح المخاطر الخاصة أو المتفاقمة في الذكاء الصناعي التوليدي، ويقترح إجراءات عملية للحكم والقياس والإدارة عبر دورة الحياة. (NIST Publications)
Stanford AI Index 2025 — يشير إلى ارتفاع الحوادث المرتبطة بالذكاء الصناعي واستمرار الفجوة بين الاعتراف بالمخاطر واتخاذ إجراءات فعالة. (Stanford HAI)
OECD – Governing with Artificial Intelligence (2025) — يركز على ضرورة بناء enablers وguardrails وآليات engagement للوصول إلى استخدام استراتيجي وجدير بالثقة. (OECD)
McKinsey – AI in the Workplace: A Report for 2025 — يذكر أن 1% فقط من قادة الشركات وصفوا تطبيقات الذكاء الصناعي التوليدي عندهم بأنها ناضجة فعلاً على مستوى تغيير طريقة العمل وتحقيق نتائج أعمال قوية. (McKinsey & Company)
EY Global Survey on Responsible AI Governance (2025) — يعرض نتائج عن الخسائر المالية المرتبطة بالمخاطر الناتجة عن الذكاء الصناعي وضعف الضوابط المناسبة. (EY)
Reuters coverage of the EY findings — تغطية صحفية تلخص النتائج وتبرز أن الخسائر المرتبطة بمخاطر الذكاء الصناعي وصلت إلى مليارات الدولارات. (Reuters)
OpenAI – Introducing GPT-4.1 — مثال رسمي على أن النماذج تملك knowledge cutoff محدداً، ما يعني أن حداثة المعرفة ليست أمراً سحرياً أو مفتوحاً بلا حدود. (OpenAI)
Anthropic Transparency Hub — يبين أيضاً تواريخ cutoff مختلفة لنماذج Claude، ويؤكد أن حداثة المعرفة تختلف من نموذج لآخر. (Anthropic)