الذكاء الاصطناعي في الامتثال ليس صندوقًا أسودًا — إنه اختبار للمساءلة: مقابلة مع رومان إلوشفيلي

Roman Eloshvili هو مؤسس شركة ComplyControl، شركة ناشئة تعتمد على الذكاء الاصطناعي للكشف عن الامتثال والاحتيال للمؤسسات المالية.


اكتشف أهم أخبار وفعاليات التكنولوجيا المالية!

اشترك في النشرة الإخبارية لـ FinTech Weekly

يقرأها التنفيذيون في جي بي مورغان، كوين بيس، بلاك روك، كلارنا وغيرهم


ما الذي يختبره الذكاء الاصطناعي في الامتثال فعلاً: التكنولوجيا، أم نحن؟

في الخدمات المالية، لم يعد الامتثال مجرد وظيفة. إنه نقطة ضغط نشطة—حيث تتصادم اللوائح والمخاطر والعمليات. مع إدخال تقنيات الذكاء الاصطناعي في هذا المجال، تظل سؤالاً يتكرر: إلى أي مدى يمكننا حقًا الأتمتة، ومن يظل مسؤولاً عندما تسوء الأمور؟

جاذبية الذكاء الاصطناعي في الكشف عن الاحتيال والامتثال سهلة الفهم. تواجه المؤسسات المالية توقعات متزايدة لمعالجة كميات هائلة من البيانات، والاستجابة للتهديدات المتطورة، والامتثال للتشريعات المتغيرة—كل ذلك دون التضحية بالسرعة أو الدقة. توفر الأتمتة، خاصة عند قيادتها بواسطة التعلم الآلي، وسيلة لتقليل العبء التشغيلي. لكنها تثير أيضًا مخاوف أعمق بشأن الحوكمة، والشرح، والسيطرة.

هذه التوترات ليست نظرية. إنها تتكشف في الوقت الحقيقي، حيث تنشر الشركات المالية نماذج الذكاء الاصطناعي في أدوار كانت تُشغل سابقًا بواسطة محللين بشريين. وراء الكواليس، تظهر مخاطر جديدة: الإيجابيات الكاذبة، النقاط العمياء في التدقيق، والقرارات الخوارزمية التي تظل غامضة للمستخدمين والمنظمين على حد سواء.

وفي الوقت نفسه، يُطلب من محترفي الامتثال تغيير أدوارهم. بدلاً من فحص كل معاملة يدويًا، أصبحوا الآن يشرفون على الأدوات التي تقوم بذلك. يتطلب هذا إعادة صياغة—من منفذ إلى مقيم—ليس فقط مهارات تقنية جديدة، بل أيضًا إحساسًا أقوى بالمسؤولية الأخلاقية والإجرائية. يمكن للذكاء الاصطناعي توسيع نطاق تحليل البيانات. يمكنه تمييز التناقضات. لكنه لا يستطيع شرح النية بالكامل، أو تفسير السياق، أو تحمل اللوم.

فهم هذه الحدود أمر حاسم. وقليل من الناس في وضع أفضل لاستكشافها من Roman Eloshvili، مؤسس شركة ComplyControl، شركة تكنولوجيا الامتثال البريطانية. عمله يقف تمامًا عند تقاطع المخاطر، والأتمتة، والرقابة—حيث تلتقي الكفاءة الخوارزمية بالتدقيق التنظيمي.

مع أكثر من عقد من الخبرة في المجال، رأى Roman عن كثب كيف تتطور فرق الامتثال وكيف يعيد الذكاء الاصطناعي تشكيل سير العمل ومسؤولياتهم. يجادل بأن وعد الذكاء الاصطناعي لا يكمن في القضاء على الأدوار البشرية، بل في إعادة تشكيلها—وإضفاء وضوح جديد على ما يجب أن تتولاه الآلات، وما يجب أن يظل البشر مسؤولين عنه.

هذا التحول يتطلب أكثر من ترقية تقنية. إنه يتطلب إعادة تنظيم ثقافية حول المساءلة. الأنظمة الشفافة، والعمليات القابلة للتدقيق، والمسؤولية البشرية المعينة بوضوح لم تعد مجرد ميزات—بل هي الحد الأدنى من المعايير. عندما يُدخل الذكاء الاصطناعي في البنية التحتية الحيوية، فإنه لا يحل المشكلات فقط. بل يُدخل فئة جديدة من القرارات التي تتطلب إدارة نشطة واستراتيجية.

في هذا الحوار مع FinTech Weekly، يقدم Roman رؤية واقعية لما يتطلبه دمج الذكاء الاصطناعي بمسؤولية في الامتثال ومنع الاحتيال. لا يرى أن الأتمتة حتمية، بل خيار—يتطلب حكمًا بشريًا مستمرًا، ووضوحًا تشغيليًا، واستعدادًا لطرح أسئلة صعبة حول مكان وجود الثقة حقًا.

يسعدنا أن نشارك رؤاه في وقت يتساءل فيه الكثيرون في مجال التكنولوجيا المالية ليس عما إذا كان ينبغي اعتماد الذكاء الاصطناعي، بل كيف يمكن القيام بذلك دون فقدان المعايير التي جعلت الأنظمة المالية تعمل في المقام الأول.


1. لقد بنيت مسيرتك المهنية عند مفترق طرق بين الامتثال والتكنولوجيا. هل تتذكر اللحظة التي أدركت فيها أن الذكاء الاصطناعي يمكن أن يغير بشكل جوهري طريقة إدارة المخاطر؟

لن أقول إنه كان مجرد لحظة محددة غيرت كل شيء. بل كان عملية متفرقة. قضيت جزءًا كبيرًا من مسيرتي في العمل مع بنوك أوروبية راسخة، وشيء كنت ألاحظه باستمرار هو أن العديد منها كان متأخرًا جدًا عندما يتعلق الأمر بحلول البنوك الرقمية. وكان التباين واضحًا بشكل خاص مقارنة بمراكز التكنولوجيا المالية الأكثر تقدمًا.

قبل عدة سنوات، عندما بدأ موضوع تطوير الذكاء الاصطناعي في التسخين مرة أخرى، أصبحت فضوليًا بطبيعة الحال ونظرت فيه. ومع دراستي للتقنية وكيفية عملها، أدركت أن الذكاء الاصطناعي لديه القدرة على تغيير جذري في طريقة تعامل البنوك مع الامتثال، مما يجعلها أكثر توازيًا مع لاعبي التكنولوجيا المالية الحديثين والأكثر مرونة.

هذا ما دفعني لإطلاق شركتي في 2023. فتعقيد إدارة الامتثال والمخاطر لا يتوقف عن النمو سنة بعد أخرى. في مواجهة هذه الحقيقة، مهمتنا بسيطة: تقديم حلول تعتمد على الذكاء الاصطناعي للشركات المالية ومساعدتها على التعامل مع هذه التحديات المتزايدة بشكل أكثر فاعلية.

2. من وجهة نظرك المهنية، كيف تطور دور المتخصصين البشريين مع تقدم أدوات الذكاء الاصطناعي في الامتثال والكشف عن الاحتيال؟

قبل أن أقول أي شيء آخر، دعني أتناول شيئًا مباشرًا من البداية. هناك قلق شائع عبر العديد من المجالات حول ما إذا كان الذكاء الاصطناعي سيحل محل العمال البشريين. وبالنسبة لمحترفي الامتثال والمخاطر، إجابتي هي لا—على الأقل، ليس في الوقت القريب.

بينما يغير الذكاء الاصطناعي صناعتنا بالفعل، فهو بعيد عن أن يكون خاليًا من الأخطاء. لذلك، يظل التدخل البشري عاملاً أساسيًا. تتغير لوائح الامتثال باستمرار، ويجب أن يكون هناك من يتحمل المسؤولية عندما تفشل الأنظمة أو ترتكب أخطاء. في مستواها الحالي، لا تزال الذكاء الاصطناعي تكافح لشرح قراراتها بوضوح، لذلك فهي ليست جاهزة لتُترك بمفردها. خاصة في مجال حيث الثقة والشفافية أمران أساسيان.

ومع ذلك، فإن الذكاء الاصطناعي يجعل عمليات الامتثال أسهل بشكل نشط. على سبيل المثال، اعتمادًا على التكوين، يمكن لأنظمة الذكاء الاصطناعي الآن تمييز المعاملات المشبوهة أو حتى حظرها مؤقتًا أثناء طلب التحقق الإضافي. لا حاجة لوجود بشر حقيقيين لفحص كل تفصيل يدويًا، إلا إذا برز شيء غريب حقًا. ومع تطور هذه الأنظمة، ستستمر في تقليل الحاجة للعمل اليدوي، مما يسمح للفرق بالتركيز أكثر على المهام الدقيقة التي تتطلب لمسة بشرية.

أعتقد أننا سنشهد ظهور نموذج هجين، حيث سيصبح خبراء الامتثال أكثر كفاءة في استخدام أدوات الذكاء الاصطناعي. سيكونون هم من يطبقون ويحافظون على أنظمة الذكاء الاصطناعي، بينما يبسط الذكاء الاصطناعي عملهم من خلال فهم البيانات المعقدة وتقديم التوصيات. الحكم النهائي، مع ذلك، سيظل للبشر.

3. عند العمل مع الذكاء الاصطناعي في مجالات حساسة مثل الامتثال المالي، كيف تعاملت شخصيًا مع تحدي الحفاظ على الثقة والمساءلة في اتخاذ القرارات؟

بالطبع. كما ذكرت سابقًا، عندما تستخدم الذكاء الاصطناعي في الامتثال، الثقة أمر حاسم.

لهذا السبب بنينا أنظمتنا على الشفافية الكاملة. فهي لا تعمل كـ “صندوق أسود”—كل توصية تقدمها النظام تستند إلى قواعد وبيانات قابلة للتتبع. نحفظ سجل تدقيق كامل لكيفية اتخاذ كل قرار، بحيث يمكن شرحه بالكامل. أثبتت هذه الممارسة قيمتها بشكل كبير عند التعامل مع المنظمين.

القرار النهائي دائمًا يكون من مسؤول موظف الامتثال. الذكاء الاصطناعي ببساطة يقدم اقتراحًا مبررًا جيدًا يمكن للبشر فحصه بسهولة واتخاذ قرار بالموافقة أو الرفض.

4. خبرتك تمتد لأكثر من 10 سنوات. كيف تغيرت نظرتك حول الأتمتة والإشراف البشري خلال مسيرتك، خاصة الآن مع تزايد استقلالية الذكاء الاصطناعي؟

بالتأكيد. بشكل أوسع، مع تقدم اعتماد الذكاء الاصطناعي، كلما تطورت هذه التقنية، زادت استقلاليتها تدريجيًا—طالما تم اختبارها بدقة واستمرت في إثبات موثوقيتها.

لكن ما يتغير أكثر هو دور المتخصص البشري في هذا المعادلة. بدلًا من إدارة كل حالة بشكل دقيق، يلعب الآن ضباط الامتثال دور المشرفين الاستراتيجيين بشكل متزايد. يمكنهم مراجعة دفعات كاملة من الحالات المماثلة بسرعة، والتحقق من أداء النظام، وضبط النماذج بناءً على النتائج.

بمعنى آخر، الدور الفعلي لضباط الامتثال يتحول من أداء العمل يدويًا إلى إدارة أنظمة الذكاء الاصطناعي التي تقوم به نيابة عنهم.

5. العمل في إدارة المخاطر المدفوعة بالذكاء الاصطناعي يتطلب التنقل بين أسئلة أخلاقية معقدة. كيف طورت شخصيًا إطار عمل لاتخاذ قرارات مسؤولة عند تصميم أو تنفيذ حلول تعتمد على الذكاء الاصطناعي؟

بنيت نهجنا حول فكرتين رئيسيتين: الرقابة الواضحة ومبادئ الذكاء الاصطناعي المسؤول. كل نموذج نستخدمه لديه شخص معين مسؤول عنه. تقييمات المخاطر، مراجعات الأداء، وفحوصات الامتثال تُجرى بانتظام.

كما نحرص على أن تكون أنظمتنا قابلة للتدقيق. إذا اتخذ الخوارزم قرارًا، يمكن مراجعة تلك العملية والتحقق منها. هذا الشفافية جزء أساسي من التزامنا بتطوير ذكاء اصطناعي مسؤول.

6. في مسيرتك، ما هو الدرس المهني الأصعب الذي تعلمته حول حدود—أو مخاطر—الاعتماد المفرط على الأتمتة في مجالات حاسمة مثل منع الاحتيال؟

درس واحد بالتأكيد يجب أن نضعه في الاعتبار هو أن النماذج المدربة جيدًا يمكن أن “تتوهم”—وترتكب أخطاءً بطريقة دقيقة ولكنها خطيرة.

يمكن للذكاء الاصطناعي أن يفوت مخططات احتيال معقدة، أو قد يطلق الكثير من التنبيهات الكاذبة. لهذا السبب، من المهم جدًا الجمع بين الذكاء الاصطناعي والخبرة البشرية—البشر يجلبون حكمًا مرنًا ويكونون أفضل في تقييم الأخلاقيات والسياق العام بطرق لا يستطيع الذكاء الاصطناعي القيام بها.

التوازن بين الاثنين يعد بنتائج أفضل وأكثر موثوقية. يمكن استخدام الذكاء الاصطناعي لتغطية حجم المهام الكبير وتسهيل تعقيدها، بينما يُستخدم الناس للحفاظ على مستوى الدقة والثقة المناسبين.

7. للمهنيين الشباب الذين يدخلون مجالات الامتثال، إدارة المخاطر، أو تطوير الذكاء الاصطناعي اليوم، ما المبادئ أو العادات الشخصية التي تنصحهم بتنميتها للنجاح والتكيف في بيئة تتغير بسرعة كهذه؟

أولاً وقبل كل شيء: لا تتوقف أبدًا عن التعلم. التقدم التكنولوجي لا يوجد لديه زر “إيقاف”، ويجب أن تواكب أو تُترك خلف الركب. لا يوجد خيار وسط هنا.

ثانيًا، فكر بشكل واسع. مع تقدم الذكاء الاصطناعي، تتداخل الأدوار أكثر فأكثر—التكنولوجيا، التمويل، والتنظيم تصبح مزيجًا واحدًا. أنا مقتنع أن امتلاك مجموعة مهارات واسعة وعقل منفتح سيكون من السمات الحاسمة للمحترفين المستقبليين في المجال.

ثالثًا—وهو استمرار طبيعي للنقطتين السابقتين—كن مرنًا. التغيير مستمر، والقدرة على التكيف بسرعة ستكون ميزة كبيرة لك.

وأخيرًا، طور مهارات اتصال قوية وتعلم كيف تكون عضو فريق فعال. كما ناقشنا سابقًا، الامتثال يقف عند مفترق طرق بين الأعمال، والتكنولوجيا، والقانون. لذلك، القدرة على تغيير المسار والتواصل مع أشخاص من جميع هذه المجالات ستكون مهارة قيمة تكتسبها.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت