مسئولية المراجع الخارجى في ظل مخاطر التواطؤ داخل تقنيات الذكاء الاصطناعى

نوع المستند : المقالة الأصلية

المؤلفون

1 مدرس المحاسبة والمراجعة كلية التجارة - جامعة الأزهر

2 مدرس المحاسبة والمراجعة كلية التجارة - جامعة الأزهر.

3 مدرس المحاسبة والمراجعة كلية التجارة - جامعة الأزهر..

المستخلص

تهدف هذه الدراسة إلى تحليل أثر مخاطر التواطؤ داخل تقنيات الذكاء الاصطناعي على مستوى تحمل المراجع الخارجي لمسئوليته المهنية والقانونية، في ضوء التحديات التقنية المتزايدة المرتبطة بإستخدام الخوارزميات الذكية في بيئة المراجعة.
  أعتمدت الدراسة على المنهج الوصفي التحليلي، وتم جمع البيانات ميدانيًا باستخدام أداة استبيان موجّهة إلى عينة من المراجعين في مصر، وشمل التحليل خمسة أبعاد أساسية تمثّل أنواع المخاطر التقنية (مثل التحيز الخوارزمي، والتواطؤ التقني، وضعف الشفافية)، إضافة إلى متغيرات ترتبط بالمسئولية المهنية والقانونية للمراجع.
 توصلت النتائج إلى أن بعض أدوات الذكاء الاصطناعي تُظهر تحيزات مدمجة تؤثر سلبًا على قدرة المراجع على اكتشاف الأخطاء الجوهرية، وتوصلت أيضاً الى أن زيادة مخاطر التواطؤ في البرمجة تؤدى الى زيادة مسئولية المراجع عن الإفصاح وتفسير القرارات، كما توصلت أيضاً الى أن عدم فهم الخوارزميات المعقدة (Black-box AI) يقيد قدرة المراجع على ممارسة الحكم المهني، بالاضافة الى أن نقص إختبارات الأداء الفني للأدوات الذكية يزيد من فرص المساءلة القانونية.
  أوصت الدراسة بـضرورة مشاركة المراجع في تطوير أدوات الذكاء الاصطناعي، وفرض معايير مهنية ملزمة بشأن الإفصاح والحكم المهني في بيئة الذكاء الاصطناعي، وتوفير تدريب تقني مستمر للمراجعين حول أدوات الذكاء الاصطناعي وآليات عملها.
This study aims to analyze the impact of collusion risks within artificial intelligence (AI) technologies on the external auditor’s level of professional and legal responsibility, in light of the growing technological challenges associated with the use of intelligent algorithms in the audit environment.
        The study adopted a descriptive-analytical methodology and collected data through a field survey directed at a sample of auditors In Egypt. The analysis covered five core dimensions representing types of technical risks (such as algorithmic bias, technical collusion, and lack of transparency), In addition to variables related to the auditor's professional and legal responsibility.
  The results revealed that some AI tools exhibit embedded biases that negatively affect the auditor’s ability to detect material misstatements. The study also found that increased collusion risks in programming lead to greater responsibility for the auditor to disclose and explain decisions. Furthermore, the complexity and opacity of certain AI algorithms (Black-box AI) were found to limit the auditor’s ability to exercise professional judgment. Additionally, the lack of performance testing for intelligent tools increases the likelihood of legal accountability.
The study recommends the active involvement of auditors in the development of AI tools, the enforcement of mandatory professional standards regarding disclosure and judgment in AI-supported environments, and the provision of continuous technical training for auditors on how AI tools function.

الكلمات الرئيسية