بصراحة، في آخر ستة أشهر صرت أحس إن في شي غريب جداً:
الجميع يتكلم عن كيف الـAI يساعد الشركات في تقليل عدد الموظفين، وأتمتة العمليات، وكيف الوكلاء الذكاء الصناعي يقدرون يقضون على الأعمال المتكررة. لكن أي أحد فعلاً جرب يطبق هالأشياء داخل شركة، يعرف تماماً — دقة الذكاء الصناعي مو المشكلة، المشكلة الحقيقية هل تقدر تخليه "ينفذ الأوامر بشكل منضبط" أو لا.
فكر فيها، لو راقبت أي عملية أساسية في شركة متوسطة كم يوم، راح تلاحظ التالي: المخاطرة مو في دقة النموذج، المخاطرة في هل التنفيذ مضبوط أو لا؛ المشكلة مو في الذكاء نفسه، المشكلة في الحدود هل هي محددة بشكل صارم أو لا؛ العقدة مو في الكفاءة، العقدة في هل تقدر تضبط كل العملية أو لا.
وهذا هو السبب ليش لما رجعت أشوف بعض مشاريع البنية التحتية لطبقة التنفيذ، حسيت إن شغلهم أهم بكثير من الظاهر — شغلهم مو إنهم يعطون الـAI بنزين، شغلهم يركبون له فرامل. أو بشكل أوضح: يركبون "قفص منظم" للأتمتة.
كل ما اعتمدت الشركات أكثر على الـAI عشان تسهل أمورها، كل ما احتاجت لمنظومة تربط تنفيذ الأوامر، وصلاحيات الوصول، ومسارات الدفع، وتناسق القوانين — كلها مع بعض. والحين في هذا المجال، المشاريع اللي تقدر تشرح هذي المنظومة بلغة منظمة وواضحة، نادرة جداً.
# كل ما زاد ذكاء النموذج، زاد احتمال فقدان السيطرة على التنفيذ
كثير ناس أول مرة يشوفون نظام وكلاء ذكاء صناعي يشتغل في الشركة ينبهرون: طلب أوتوماتيكي، تعديل ميزانية تلقائي، تحويلات مالية دولية تلقائية، ربط تلقائي مع SaaS، استرجاع فلوس أوتوماتيكي، تغيير مسار API تلقائي.
لكن الصورة اللي يشوفها الـCTO في الشركة مختلفة تماماً: - هل تجاوز الصلاحيات؟ - هل تفادى أنظمة إدارة المخاطر؟ - أي مورد تم اختياره؟ - ليش اختار هذا المسار؟ - هل في توثيق ومراجعة على خصم المبلغ؟ - هل الميزانية راح
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
بصراحة، في آخر ستة أشهر صرت أحس إن في شي غريب جداً:
الجميع يتكلم عن كيف الـAI يساعد الشركات في تقليل عدد الموظفين، وأتمتة العمليات، وكيف الوكلاء الذكاء الصناعي يقدرون يقضون على الأعمال المتكررة. لكن أي أحد فعلاً جرب يطبق هالأشياء داخل شركة، يعرف تماماً — دقة الذكاء الصناعي مو المشكلة، المشكلة الحقيقية هل تقدر تخليه "ينفذ الأوامر بشكل منضبط" أو لا.
فكر فيها، لو راقبت أي عملية أساسية في شركة متوسطة كم يوم، راح تلاحظ التالي:
المخاطرة مو في دقة النموذج، المخاطرة في هل التنفيذ مضبوط أو لا؛
المشكلة مو في الذكاء نفسه، المشكلة في الحدود هل هي محددة بشكل صارم أو لا؛
العقدة مو في الكفاءة، العقدة في هل تقدر تضبط كل العملية أو لا.
وهذا هو السبب ليش لما رجعت أشوف بعض مشاريع البنية التحتية لطبقة التنفيذ، حسيت إن شغلهم أهم بكثير من الظاهر — شغلهم مو إنهم يعطون الـAI بنزين، شغلهم يركبون له فرامل. أو بشكل أوضح: يركبون "قفص منظم" للأتمتة.
كل ما اعتمدت الشركات أكثر على الـAI عشان تسهل أمورها، كل ما احتاجت لمنظومة تربط تنفيذ الأوامر، وصلاحيات الوصول، ومسارات الدفع، وتناسق القوانين — كلها مع بعض. والحين في هذا المجال، المشاريع اللي تقدر تشرح هذي المنظومة بلغة منظمة وواضحة، نادرة جداً.
# كل ما زاد ذكاء النموذج، زاد احتمال فقدان السيطرة على التنفيذ
كثير ناس أول مرة يشوفون نظام وكلاء ذكاء صناعي يشتغل في الشركة ينبهرون:
طلب أوتوماتيكي، تعديل ميزانية تلقائي، تحويلات مالية دولية تلقائية، ربط تلقائي مع SaaS، استرجاع فلوس أوتوماتيكي، تغيير مسار API تلقائي.
لكن الصورة اللي يشوفها الـCTO في الشركة مختلفة تماماً:
- هل تجاوز الصلاحيات؟
- هل تفادى أنظمة إدارة المخاطر؟
- أي مورد تم اختياره؟
- ليش اختار هذا المسار؟
- هل في توثيق ومراجعة على خصم المبلغ؟
- هل الميزانية راح