شبكة الطيف الاخبارية - 5/13/2026 8:23:49 PM - GMT (+3 )
طوال الجزء الأكبر من عقدين من الزمن، كان اتجاه السفر في تكنولوجيا المؤسسات واضحًا: كل شيء ينتقل إلى السحابة. كان الأساس المنطقي بسيطًا؛ كانت السحابة أرخص وقابلة للتطوير وأسهل في الإدارة. ولكن مع دخول الذكاء الاصطناعي إلى التيار الرئيسي للمؤسسات، بدأ هذا الافتراض القديم في الانحناء.
وفي بعض المجالات، وخاصة عندما يتعلق الأمر بالبيانات الحساسة، تعيد الشركات النظر في كيفية ومكان عمل الذكاء الاصطناعي. وعلى نحو متزايد، يقومون باستكشاف الذكاء الاصطناعي داخل جدار الحماية، وتشغيل قدرات الذكاء الاصطناعي داخل بيئاتهم الخاضعة للتحكم محليًا بدلاً من الاعتماد بالكامل على المنصات السحابية.
ونحن نرى هذا التحول بوضوح من خلال عدسة بيانات إدارة رأس المال البشري. عبر منصاتنا، يتفاعل أكثر من مليوني موظف مع أنظمة القوى العاملة يوميًا من خلال الساعات الزمنية والتحقق البيومتري وأدوات إدارة القوى العاملة. توفر وجهة النظر هذه رؤية واضحة لكيفية تفكير المؤسسات في بيانات الموظفين، وسبب أهمية التحكم في تلك البيانات.
الدافع وراء هذا التحول هو الثقة. على مدار العام الماضي، أظهرت أدوات الذكاء الاصطناعي من شركات مثل OpenAI وGoogle وAnthropic قدرات غير عادية، بدءًا من تلخيص المستندات المعقدة وحتى تحليل البيانات وتسريع عملية اتخاذ القرار عبر كل وظيفة في الشركة تقريبًا.
ومع ذلك، إلى جانب الإثارة، يكمن السؤال المستمر حول ما الذي يحدث للبيانات؟
عندما تقوم المؤسسات بإدخال المعلومات في نموذج الذكاء الاصطناعي القائم على السحابة، فإن هذه البيانات، بحكم تعريفها، تغادر بيئتها المباشرة. حتى مع وجود ضمانات قوية حول سياسات الخصوصية والتدريب، تظل العديد من الشركات حذرة بشأن كيفية معالجة المعلومات الحساسة ومكان وجودها في نهاية المطاف.
وفي الصناعات الخاضعة للتنظيم مثل الخدمات المالية والخدمات القانونية والرعاية الصحية، يكون الحذر أكثر وضوحًا. تحتفظ هذه المنظمات بكميات هائلة من بيانات العملاء السرية والمعلومات الداخلية الإستراتيجية. وأي شك حول كيفية تخزين تلك البيانات أو معالجتها أو إعادة استخدامها يؤدي إلى مخاطر قانونية وتشغيلية ومخاطر محتملة تتعلق بالسمعة.
تقع بيانات HCM ضمن فئة حساسة بالمثل. خذ بعين الاعتبار أنواع المعلومات الموجودة في أنظمة HCM: هياكل التعويضات، وتقييمات الأداء، وتخطيط التعاقب، وخطط إعادة هيكلة القوى العاملة، والسجلات التأديبية، وقرارات التوظيف الإستراتيجية. بالنسبة للعديد من المنظمات، يمكن القول أن هذه المعلومات أكثر حساسية من البيانات المالية. إنه أمر شخصي للغاية، وذو أهمية استراتيجية، ويخضع لرقابة تنظيمية صارمة.
بينما تستكشف المؤسسات تطبيقات الذكاء الاصطناعي في الموارد البشرية، بدءًا من تخطيط القوى العاملة وحتى تحليلات المواهب، فإن مسألة سيادة البيانات تصعد سريعًا إلى قمة جدول الأعمال. ببساطة، تريد الشركات أن تعرف بالضبط مكان وجود بياناتها، ومن يمكنه الوصول إليها، وكيف يتم استخدامها.
ولهذا السبب تستكشف العديد من الشركات الآن طرقًا لتشغيل نماذج الذكاء الاصطناعي داخل البنية التحتية الخاصة بها أو ضمن شبكات داخلية خاضعة لرقابة مشددة. وفي هذه البيئات، لا تخرج مجموعات البيانات الحساسة عن سيطرة المؤسسة أبدًا. وفي بعض النواحي، يمثل هذا انعكاسًا دقيقًا للانتقال إلى السحابة التي حددت تكنولوجيا المؤسسات على مدار العشرين عامًا الماضية. ولكن هذا ليس تراجعاً عن السحابة بقدر ما هو تطور لكيفية موازنة المؤسسات بين الابتكار والمخاطر.
لقد كان الأمن السيبراني دائمًا هدفًا متحركًا. طوال مسيرتي المهنية في مجال التكنولوجيا، كانت إحدى الملاحظات الثابتة من قادة الأمن هي أن الدفاعات مصممة دائمًا لمواجهة التهديدات التي لا تزال تتطور. يقدم الذكاء الاصطناعي طبقة أخرى من التعقيد لهذا التحدي.
فالتكنولوجيا نفسها تتقدم بسرعة، ولا تزال العديد من المنظمات تتعلم كيفية دمجها بشكل مسؤول. لا تزال أطر الحوكمة والرقابة النموذجية وممارسات إدارة البيانات في طور التطوير عبر الصناعة. ليس من المستغرب أن يشعر العديد من قادة الأعمال براحة أكبر في اعتماد الذكاء الاصطناعي في البيئات التي يحتفظون فيها بأعلى درجة من الرؤية والتحكم.
كما يقول الرئيس التنفيذي لشركة Nvidia Jensen Huang، نحن ندخل عصر “قانون Hyper Moore”، حيث يتقدم الذكاء الاصطناعي بشكل أسرع من دورات الحوسبة التقليدية، وتصبح أجهزة الذكاء الاصطناعي أكثر قوة وأسهل في الوصول إليها. في حين أن السحابة لا تزال تقود الأداء، فإن الفجوة تضيق، وهذا التحول مهم، لأنه يجعل الذكاء الاصطناعي الداخلي في متناول اليد المالية ويتيح قدرًا أكبر من التحكم والأمان والثقة في البيانات الحساسة.
ولهذا السبب بدأ النموذج الهجين في الظهور. ستعيش بعض قدرات الذكاء الاصطناعي في السحابة، بالاعتماد على موارد الحوسبة الضخمة والنماذج واسعة النطاق التي يقدمها مقدمو الخدمات الرئيسيون. وسيعمل آخرون داخل المنظمة، ضمن الأنظمة الداخلية والبيئات المحمية.
نحن نعلم أن هذا التحول لا يتعلق بهندسة التكنولوجيا بقدر ما يتعلق بالثقة التنظيمية. لن تتبنى الشركات الذكاء الاصطناعي بشكل كامل إلا عندما تثق به. وتبدأ الثقة بمعرفة أن البيانات التي تقوم عليها هذه الأنظمة تظل محمية.
وفي مجال إدارة رأس المال البشري، كان هذا المبدأ دائمًا أساسيًا. تعتمد المصادقة البيومترية، على سبيل المثال، على تقنيات مثل تشويش القالب لضمان عدم إعادة بناء البيانات الشخصية الأساسية أو إساءة استخدامها. لا يتم تخزين البيانات البيومترية الأصلية أبدًا في شكل قابل للاستخدام.
تنطبق نفس الفلسفة عندما يصبح الذكاء الاصطناعي جزءًا لا يتجزأ من أنظمة إدارة القوى العاملة. إذا كانت المؤسسات ستستخدم الذكاء الاصطناعي لدعم تخطيط القوى العاملة أو تحليل اتجاهات الموظفين أو تحسين العمليات، فإنها تحتاج إلى الثقة المطلقة في كيفية التعامل مع تلك البيانات.
ولهذا السبب نعتقد أن اتجاه الذكاء الاصطناعي من داخل جدار الحماية سوف يصبح ذا أهمية متزايدة على مدى الأشهر الأربعة والعشرين المقبلة، ليس لأن الشركات لا تثق في الذكاء الاصطناعي ذاته، بل لأنها ترى إمكانات هائلة فيه. ومع ذلك، فهم يريدون نشرها بطرق تتوافق مع مسؤولياتهم فيما يتعلق بحماية البيانات والحوكمة وثقة الموظفين. وبهذا المعنى فإن ما نشهده ليس رفضاً لعصر السحابة، بل هو المرحلة التالية من تطورها.
إقرأ المزيد


