مايكروسوفت تحذر من مخاطر الاستخدام غير المنضبط للذكاء الاصطناعي قبيل مؤتمر ميونخ للأمن
وكالات: عين الحقيقة
أصدرت شركة مايكروسوفت الأميركية تحذيرًا شديد اللهجة من مخاطر الاستخدام غير المنضبط لتطبيقات المساعدات الآلية المعتمدة على الذكاء الاصطناعي، وذلك قبيل انعقاد مؤتمر ميونخ للأمن.
وقال باحثون في الشركة، في تقرير نُشر الثلاثاء، إن أدوات المساعدة البرمجية القائمة على الذكاء الاصطناعي تُستخدم بالفعل في أكثر من 80% من الشركات المدرجة على قائمة «فورتشن 500»، ما يعكس تسارع اعتماد هذه التقنيات داخل بيئات العمل.
غير أن التقرير أشار إلى أن معظم الشركات لا تملك قواعد واضحة أو سياسات تنظيمية لاستخدام الذكاء الاصطناعي، محذرًا من أن سرعة انتشار هذه التقنيات قد تخلق مخاطر أمنية جسيمة. وأوضح أن غياب الرقابة من قبل الإدارات المختصة، إلى جانب ما وصفه بـ«الذكاء الاصطناعي الخفي»، يفتحان الباب أمام أساليب هجوم سيبراني جديدة.
ويُقصد بمصطلح «الذكاء الاصطناعي الخفي» لجوء الموظفين إلى استخدام أدوات وتطبيقات ذكاء اصطناعي من الإنترنت دون علم أو موافقة أقسام تقنية المعلومات أو الأمن السيبراني في شركاتهم، بهدف إنجاز المهام بسرعة أكبر.
وحذّر التقرير من اتساع الفجوة بين الابتكار والأمن السيبراني، إذ أظهر أن أقل من نصف الشركات، أي نحو 47% فقط، تمتلك ضوابط أمنية محددة لاستخدام الذكاء الاصطناعي التوليدي. كما بيّن أن 29% من الموظفين يستخدمون بالفعل أدوات ذكاء اصطناعي غير مصرح بها في عملهم، وهو ما يخلق ثغرات أمنية محتملة في أنظمة الشركات.
وأكد خبراء مايكروسوفت أن المخاطر تزداد في حال لم تُمنح الشركات الوقت الكافي لإدماج تقنيات الذكاء الاصطناعي ضمن منظوماتها التشغيلية بصورة آمنة. وأضاف التقرير أن النشر السريع لهذه التطبيقات قد يتجاوز ضوابط الأمن والامتثال، ما يزيد من احتمالات الاستخدام غير المصرح به وما يصاحبه من تهديدات سيبرانية.
ودعت مايكروسوفت الشركات إلى وضع سياسات واضحة لاستخدام الذكاء الاصطناعي وتعزيز إجراءات الحوكمة والأمن، لضمان الاستفادة من مزاياه دون تعريض الأنظمة والبيانات لمخاطر متزايدة.
التعليقات مغلقة، ولكن تركبكس وبينغبكس مفتوحة.