في مؤتمر «IBM Think 2026» الذي عقد مؤخراً في بوسطن، سلطت شركة IBM الضوء على المرحلة الجديدة والحاسمة للذكاء الاصطناعي المؤسسي. لم يعد النجاح مرهوناً بالوصول إلى أكبر عدد من النماذج، بل أصبح يتمحور حول قدرة الشركات على دمج الذكاء الاصطناعي بفعالية في عملياتها التشغيلية. تؤكد IBM أن هذه المرحلة تتطلب إعادة تصميم شاملة لسير العمل، وتنظيم البيانات، وإدارة القوى العاملة الرقمية، مع التركيز على بناء أطر حوكمة وأمن قوية لضمان السيطرة على هذه التقنيات.

وفي حديثين منفصلين، أوضح محمد علي، نائب الرئيس الأول ورئيس IBM Consulting، ومارك هيوز، الشريك الإداري العالمي لخدمات الأمن السيبراني في IBM Consulting، أن الشركات تنتقل من مرحلة التجارب إلى تحديات أكثر تعقيداً. يصفان هذه المرحلة بأنها تتطلب إعادة هندسة هيكلية للعمليات، وتدقيقاً في البيانات وسياق استخدامها، وإدارة فعالة للقوى العاملة الرقمية، بالإضافة إلى بناء آليات حوكمة وأمن متينة لضمان فعالية الذكاء الاصطناعي ودعمه للعمليات الفعلية.

ما بعد التجارب: نحو تشغيل فعلي للذكاء الاصطناعي المؤسسي

يشير محمد علي إلى أن العديد من المؤسسات تواجه عقبات ليس بسبب نقص الأدوات، بل لعدم قدرتها على تعديل طرق عملها الأساسية. ويوضح أن التحدي الأكبر يكمن في كيفية إعادة تشكيل العمليات لتقديم قيمة حقيقية للأعمال. بينما كانت المرحلة الأولى من الذكاء الاصطناعي تركز على مهام بسيطة لوكلاء محددين، تتطلب المرحلة الحالية دمج هؤلاء الوكلاء بطريقة آمنة ومنظمة لتحقيق قيمة أعمال ملموسة ضمن سير العمل الجديد.

ويفسر علي هذا التحول التحديات التي تواجهها العديد من الجهود المؤسسية في الذكاء الاصطناعي، معتبراً أن الطموحات الأولية غالباً ما تكون أوسع من اللازم، مما يؤدي إلى صعوبة تجاوز مرحلة التجارب. إن بدلاً من الوعود الكبيرة، يجب على المؤسسات الناجحة البدء بحالات استخدام محدودة ومرتبطة مباشرة بالقيمة، ثم توسيع نطاقها تدريجياً. كما أن غياب التفكير المنهجي في الحوكمة عند نقل الذكاء الاصطناعي إلى مرحلة الإنتاج، وظهور ما يعرف بـ «الذكاء الاصطناعي الظلي» حيث تتبنى أقسام مختلفة أدوات منفصلة دون رؤية شاملة، يعدان من المشكلات المتكررة التي قد تؤدي إلى تدمير القيمة بدلاً من خلقها.

نموذج تشغيل جديد للذكاء الاصطناعي

تتمحور الرسالة الأساسية لـ IBM هذا العام حول ما تسميه «نموذج تشغيل الذكاء الاصطناعي». الفكرة هنا لا تقتصر على زيادة استخدام الذكاء الاصطناعي، بل على تغييره من مجموعة من التجارب المنفصلة إلى جزء لا يتجزأ من طريقة عمل المؤسسة. يرى علي أن نضج الذكاء الاصطناعي يسمح الآن بربط حالات الاستخدام الفردية «بطريقة عاملية»، مما يمكّن المؤسسات من إعادة هندسة طريقة إنجاز العمل على المستوى التأسيسي.

ويقدم محمد علي مثالاً من داخل IBM، حيث بدأت الشركة قبل ثلاث سنوات في نشر الذكاء الاصطناعي على نطاق واسع عبر تفكيك عملياتها إلى 490، واختيار 70 منها، وبناء 220 عاملاً رقمياً. أدى هذا إلى إعادة تصميم مجالات مثل الموارد البشرية والمالية وسلسلة الإمداد لتصبح «بشرية + رقمية»، مما ساهم في خفض الإنفاق بما يقارب 4.5 مليار دولار، مؤكداً أن هذا التحول ممكن فقط عند جعل الذكاء الاصطناعي جزءاً أساسياً من نموذج التشغيل.

«طيران الرياض» نموذجاً رائداً

يسلط محمد علي الضوء على «طيران الرياض» كمثال لشركة تبني الذكاء الاصطناعي ضمن نموذج التشغيل منذ البداية، وليس كطبقة تضاف لاحقاً. تكمن أهمية هذا المثال في كونها شركة طيران جديدة، مما يمنحها ميزة البناء دون قيود الأنظمة القديمة التي تواجهها الشركات الراهنة. يوضح علي أن العمل مع «طيران الرياض» بدأ من العمليات الداخلية والمالية، بهدف إعادة تصميم هذه المسارات أولاً لزيادة الكفاءة المؤسسية. تتيح هذه الخطوة لاحقاً توجيه المزيد من الموارد نحو تحسين تجربة العميل، واستخدام وكلاء الذكاء الاصطناعي عبر رحلة العميل بالكامل.

ويقارن ذلك بأنظمة الطيران التقليدية القائمة على هياكل قديمة، مؤكداً أن «طيران الرياض» لديها فرصة فريدة للبناء على نموذج رقمي متطور منذ البداية، بوصفها «تجربة تجارة إلكترونية لديها 200 طائرة».

التغيير الهيكلي قبل التقنية

يؤكد علي مراراً أن جوهر المسألة لا يكمن في نشر الذكاء الاصطناعي بحد ذاته، بل في قدرة الشركة على تغيير طريقة عملها. ويشير إلى أن أصعب المناقشات مع العملاء لم تعد تدور حول قدرات الذكاء الاصطناعي أو المسؤولية، بل حول كيفية تغيير نموذج التشغيل والاستعانة بالدعم في إدارة هذا التغيير. يلخص أحد العملاء الأمر بأن 30% تقنية و 70% تتعلق بالتبني، وتغيير سير العمل، وكيفية إنجاز الناس للمهام.

لذلك، يظل البشر في قلب هذه القصة. يتوقع علي أن الذكاء الاصطناعي سيغير سوق العمل بدلاً من إلغائه، وأن الوظائف الجديدة ستنشأ بسببه، وأن من يتبنون الذكاء الاصطناعي كأداة سيكونون المتفوقين. ويشدد على أن الدعم من القيادات العليا داخل المؤسسة يعد شرطاً أساسياً لنجاح التغيير واسع النطاق.

ضمان سيطرة الوكلاء الرقميين

في حين أن محمد علي يركز على صعوبات التحول إلى التشغيل الفعلي للذكاء الاصطناعي، يشرح مارك هيوز ما يحدث عند توسع هذه الجهود. يزداد تعقيد الذكاء الاصطناعي المؤسسي وحساسيته مع الانتقال من استخدامات محدودة إلى عدد كبير من الوكلاء المدمجين في سير العمل واتخاذ القرارات. لم تعد القضية مجرد تشغيل أداة الذكاء الاصطناعي، بل ضرورة ضمان حوكمة نشرها، بما في ذلك التشفير، والهوية، والوصول، والصلاحيات، والبيانات، والمراقبة وقت التشغيل. يؤدي عدم وجود هذه الضوابط إلى مخاطر كبيرة.

ويرى هيوز أن الفرق بين جهود التوسع الناجحة والفاشلة لا يكمن في النموذج نفسه، بل في الانضباط في عملية النشر. ويتفق مع علي في أن العديد من مشروعات الذكاء الاصطناعي تفشل بسبب نطاقها الأولي الواسع، وأن ضعف الحوكمة يمكن أن يكون بنفس الضرر. يشير إلى أن بعض المؤسسات لا تفهم جيداً ما تفعله الوكلاء، مما يعيق التنفيذ. بينما تعاني مؤسسات أخرى من ظاهرة الذكاء الاصطناعي الظلي والنشر المجزأ. والمؤسسات الناجحة هي تلك التي تفكر بمنهجية في إدخال الذكاء الاصطناعي إلى الإنتاج وتبني الحوكمة حوله.

إدارة الوكلاء الرقميين تتطلب رؤية شاملة

يزداد هذا الأمر إلحاحاً مع انتقال الشركات من عدد محدود من المساعدين إلى أعداد كبيرة من الوكلاء ضمن سير العمل الفعلي. تبرز مشكلة «الرؤية» كعقبة رئيسية، حيث تجد المؤسسات نفسها أمام وكلاء متنوعين من مزودين ومنصات مختلفة دون رؤية موحدة لسلوكهم. يصبح من الصعب، بل من المستحيل، رؤية كل هؤلاء الوكلاء في وقت واحد. تنشأ مشكلة إدارية جديدة تتمثل في ضرورة إدارة العمال الرقميين، وفهم سلوكهم، ومراقبتهم، وضبطهم، بالإضافة إلى العمال البشريين. ويتوقع هيوز أن مدير المستقبل سيحتاج إلى معرفة كيفية إدارة هذا المزيج من العمال.

البيانات والضوابط: حجر الزاوية

تتفق رؤية علي وهيوز على أهمية البيانات. يؤكد علي أن «البيانات أساسية جداً»، وأن جودة النتائج تعتمد على «خط أنابيب البيانات والسياق والعملية التي تستفيد من النماذج». تسعى IBM إلى تحسين ذلك من خلال أدوات مثل «Context Studio»، التي لا تقوم فقط بمعالجة كميات هائلة من البيانات، بل تبني طبقة من الأنطولوجيا والعلاقات التي يمكن للوكلاء استخدامها كسياق. لا يقتصر الأمر على امتلاك البيانات، بل على معالجتها بطريقة تمكن الوكلاء من العمل بكفاءة، حتى مع البيانات الخام غير الكاملة أو غير المنظمة. بينما يركز هيوز على ضرورة عدم فصل الحوكمة حول البيانات عن الحوكمة حول الوكلاء. في القطاعات المنظمة، تعتبر البيانات وسلوك الوكيل حولها عوامل مهمة على حد سواء. ويؤكد على الحاجة إلى ضوابط ما قبل الإنتاج ووقت التشغيل لمراقبة سلوك الوكلاء بعد دخولهم الخدمة.

الأمن والمساءلة: دعائم أساسية

لم يعد الأمن مجرد طبقة إضافية، بل أصبح جزءاً لا يتجزأ من نموذج التشغيل. يوسع الذكاء الاصطناعي سطح الهجوم بسبب زيادة عدد الأنظمة والوكلاء والعمليات الذاتية، مع إمكانية نشر 1.5 مليار وكيل بحلول عام 2028. ومع ذلك، يوفر الذكاء الاصطناعي أيضاً فرصة لإدارة الأمن بصورة أسرع. يؤدي التحول الذي يغير سير العمل والعمليات إلى إعادة تصميم مماثلة للأمن. يجب أن تبقى المسؤولية واضحة في حال توليد قرارات الذكاء الاصطناعي لمخاطر. يؤكد هيوز على أهمية الخبرات المكتسبة في عمليات تقنية المعلومات المؤسسية، مشيراً إلى أنه كما للتطبيقات مالكون محددون، ينبغي أن يكون للوكلاء أيضاً مالكون واضحون، مع تحديد الجهة المسؤولة عنهم. مع توسع الأتمتة، لا يمكن للمسؤولية أن تختفي.

في هذا السياق، لا تُقاس قيمة الذكاء الاصطناعي في المؤسسات بعدد المبادرات أو سرعة التجارب، بل بقدرته على الاندماج في العمليات الفعلية، والعمل بكفاءة وانضباط، وتحقيق أثر قابل للقياس. من هنا، تبدأ المرحلة التالية.

شاركها.