التجارب إلى التشغيل: IBM تكشف عن المرحلة التالية للذكاء الاصطناعي المؤسسي
في ختام مؤتمر “IBM Think 2026” في بوسطن، أصبح من الواضح أن المرحلة القادمة للذكاء الاصطناعي المؤسسي لن تعتمد على عدد النماذج المتاحة، بل على قدرة الشركات على دمج الذكاء الاصطناعي فعلياً في عملياتها التشغيلية.
يقدم خبراء من IBM نظرة متعمقة على انتقال الشركات من مرحلة التجريب إلى مرحلة التشغيل الفعلي، والتي تتطلب إعادة تصميم سير العمل، وتنظيم البيانات والسياق، وإدارة القوى العاملة الرقمية، وبناء حوكمة وأمن قويين لضمان السيطرة على الذكاء الاصطناعي.
ما وراء التجارب: تحديات التحول المؤسسي
يشير محمد علي، نائب الرئيس الأول ورئيس IBM Consulting، إلى أن العديد من المؤسسات تواجه صعوبة ليس في نقص الأدوات، بل في عدم قدرتها على إعادة هيكلة طرق عملها الأساسية. يقول علي: “التحدي لدى العديد من العملاء هو كيفية إعادة هندسة عملياتهم بالفعل لتحقيق قيمة أفضل لأعمالهم”.
ويوضح علي أن المرحلة الأولى من الذكاء الاصطناعي كانت تركز على مهام بسيطة محددة، بينما تتطلب المرحلة الحالية تجميع هذه الأدوات بطريقة آمنة ومحكومة لتحويلها إلى قيمة أعمال حقيقية ضمن سير العمل الجديد. ويرجع فشل العديد من الجهود المؤسسية في الذكاء الاصطناعي إلى تجاوز نطاق الطموحات الأولية للمرحلة.
ووفقاً لعلي، فإن المؤسسات الناجحة تبدأ بحالات استخدام محدودة ذات قيمة واضحة، ثم توسع نطاقها تدريجياً. ويضيف أن مشكلات أخرى شائعة تشمل عدم التفكير المنهجي في الحوكمة عند نقل الذكاء الاصطناعي إلى مرحلة الإنتاج، وظهور “الذكاء الاصطناعي الظلّي” حيث تتبنى أقسام مختلفة أدوات بشكل منفصل دون رؤية شاملة، مما يؤدي إلى تدمير القيمة بدلاً من خلقها.
نموذج تشغيل جديد للذكاء الاصطناعي
تطرح IBM هذا العام رؤية تحت عنوان “نموذج تشغيل الذكاء الاصطناعي”، مؤكدة على ضرورة دمج الذكاء الاصطناعي في صميم العمليات المؤسسية بدلاً من التعامل معه كمجموعة من التجارب المنفصلة.
يسمح نضج الذكاء الاصطناعي حالياً بربط حالات الاستخدام الفردية بطريقة عملية تسمح بإعادة هندسة إنجاز العمل على مستوى تأسيسي. وهذا هو الفارق الحقيقي بين الشركات التي لا تزال في مرحلة التجريب وتلك التي تحولت إلى القدرة التشغيلية.
ويقدم علي مثالاً داخلياً من IBM، حيث أدى نشر الذكاء الاصطناعي على نطاق واسع عبر تفكيك وإعادة تصميم سير العمل، مثل الموارد البشرية والمالية وسلسلة الإمداد، إلى خفض الإنفاق بشكل كبير. “هذا لا يحدث إلا عندما تجعل الذكاء الاصطناعي جزءاً من نموذج التشغيل”، يؤكد علي.
“طيران الرياض” كنموذج للدمج المبكر
يُعد “طيران الرياض” مثالاً لشركة تبني الذكاء الاصطناعي من اليوم الأول ضمن نموذج تشغيلها، بدلاً من إضافته كطبقة لاحقة. تكمن أهمية هذا المثال في بناء الشركة دون عبء الأنظمة القديمة التي تقيد الشركات القائمة.
بدأ العمل في “طيران الرياض” بالتركيز على العمليات المالية والداخلية، بهدف إعادة تصميم المسارات المؤسسية لتكون أكثر كفاءة، قبل توجيه الموارد لتجربة العميل. تتيح هذه الاستراتيجية الناقلة بناء تجربة تجارة إلكترونية متكاملة تدعم أسطولها.
التغيير الثقافي والتكنولوجي
تؤكد IBM مرارًا أن المسألة لا تقتصر على نشر الذكاء الاصطناعي، بل على تغيير طريقة العمل. المحادثة الأصعب مع العملاء لم تعد حول ما يمكن للذكاء الاصطناعي فعله، بل حول كيفية تبني التغيير في نموذج التشغيل وإدارة هذا التحول.
يُعتقد أن الذكاء الاصطناعي سيغير سوق العمل بدلاً من إلغائه، وسينشأ عنه مجموعة كاملة من الوظائف الجديدة. يمثل وجود راعٍ رفيع المستوى داخل المؤسسة شرطاً أساسياً لنجاح التغيير واسع النطاق.
ضبط الوكلاء الرقميين: الأمن والحوكمة
يوضح مارك هيوز، الشريك الإداري العالمي لخدمات الأمن السيبراني في IBM Consulting، أن الذكاء الاصطناعي المؤسسي يصبح أكثر تعقيدًا وحساسية مع انتقال الأعداد الكبيرة من الوكلاء إلى سير العمل واتخاذ القرار.
لم تعد القضية تتمحور حول عمل أداة الذكاء الاصطناعي، بل حول مدى تحكمها. الحوكمة ضرورية، بما في ذلك ضوابط التشفير والهوية والوصول والصلاحيات والبيانات والمراقبة وقت التشغيل. الخطر كبير في عدم وجود هذه الضوابط.
الفرق بين جهود التوسع الناجحة والفاشلة غالبًا ما يكمن في انضباط النشر وضعف الحوكمة. بعض المؤسسات لا تفهم جيدًا ما يفعله الوكلاء، مما يعيق تنفيذ الذكاء الاصطناعي، بينما يعاني البعض الآخر من “الذكاء الاصطناعي الظلّي”. المؤسسات الناجحة تفكر بشكل منهجي في إدخال الذكاء الاصطناعي إلى الإنتاج وتبني الحوكمة حوله.
إدارة الوكلاء الرقميين: الرؤية والمسؤولية
تظهر مشكلة التحكم الأولى في الرؤية، حيث قد تجد المؤسسات نفسها أمام وكلاء متنوعين من مزودين ومنصات مختلفة دون رؤية موحدة. أصبح مديرو الغد بحاجة إلى معرفة كيفية إدارة العمال البشريين والرقميين على حد سواء، وهي مهارة غير مخطط لها حاليًا.
البيانات والضوابط: أساس النجاح
تعتبر البيانات أساسية جدًا، فالنماذج جيدة، لكن ما يصنع النتيجة هو “خط أنابيب البيانات والسياق والعملية الذي يستفيد من النماذج”. أدوات مثل “Context Studio” من IBM تبني طبقة من الأنطولوجيا والعلاقات لمساعدة الوكلاء.
لا يمكن فصل الحوكمة حول البيانات عن الحوكمة حول الوكلاء. في القطاعات المنظمة، يعتبر سلوك الوكيل حول البيانات بنفس أهمية البيانات نفسها. يجب وجود ضوابط ما قبل الإنتاج ووقت التشغيل لمراقبة سلوك الوكلاء بعد دخولهم الخدمة.
الأمن والمساءلة في عصر الذكاء الاصطناعي
لم يعد الأمن مجرد طبقة إضافية، بل جزءًا من نموذج التشغيل. يوسع الذكاء الاصطناعي سطح الهجوم، لكنه يمنح المؤسسات أيضًا فرصة لإدارة الأمن بشكل أسرع.
تظل المساءلة قضية حاسمة؛ إذا ولّدت قرارات الذكاء الاصطناعي خطرًا، يجب أن تبقى المسؤولية واضحة. كما أن للتطبيقات مالكين محددين، ينبغي أن يكون للوكلاء أيضًا مالكون واضحون، مع خطة تحدد الجهة المسؤولة عنهم.
في هذا السياق، لم تعد قيمة الذكاء الاصطناعي تُقاس بعدد المبادرات، بل بقدرته على الدخول في العمليات الفعلية، والعمل فيها بانضباط، وتحقيق أثر قابل للقياس. تبدو المرحلة التالية للذكاء الاصطناعي المؤسسي قد بدأت بالفعل.
