تكنولوجيا

سباق لحماية الذكاء الاصطناعي من الاختراق بعد جرائم الكترونية بـ 16 مليار دولار

كشف تقرير حديث صادر عن مكتب التحقيقات الفيدرالي (FBI) في الولايات المتحدة عن حجم الخسائر الفادحة التي تكبدها العالم جراء الجرائم الإلكترونية المختلفة خلال العام الماضي 2024، والتي تجاوزت حاجز الـ 16 مليار دولار أمريكي.
ووفقًا للبيانات التي جمعها مكتب التحقيقات الفيدرالي، فإن الزيادة الملحوظة في حجم الخسائر، والتي تقدر بنحو الثلث مقارنة بعام 2023، تعود بشكل أساسي إلى عمليات احتيال بسيطة ولكنها واسعة الانتشار. وتشمل هذه العمليات استغلال المستثمرين المبتدئين عبر الإنترنت وسرقة أموالهم، بالإضافة إلى خداع موظفي الشركات من خلال رسائل بريد إلكتروني مزيفة بهدف تحويل مبالغ مالية ضخمة إلى حسابات المجرمين.

وأشار التقرير إلى أن عمليات الاحتيال التي تتضمن الإيهام بالدعم الفني والاحتيال العاطفي قد تسببت أيضًا في خسائر تقدر بمئات الملايين من الدولارات على مستوى العالم.

مركز شكاوى جرائم الإنترنت.. نافذة على عالم الجريمة الرقمية

أوضح مكتب التحقيقات الفيدرالي أن مركز شكاوى جرائم الإنترنت التابع له (IC3) هو الجهة المسؤولة عن جمع هذه الإحصائيات والبيانات الشاملة. وقد تحول المركز إلى منصة مركزية لتبادل تقارير الاحتيال والقرصنة الرقمية، حيث استقبل ما يقرب من 860 ألف شكوى خلال عام 2024.

تحديات في تقدير الحجم الحقيقي للخسائر

يُقر الخبراء بأن تقدير الحجم الحقيقي للخسائر الناجمة عن الجرائم الإلكترونية يمثل تحديًا كبيرًا نظرًا لطبيعة هذه الجرائم المعقدة والمتطورة. وعلى الرغم من أن أرقام مكتب التحقيقات الفيدرالي تعتبر من بين الأكثر شمولاً المتاحة، إلا أن المكتب نفسه اعترف بأن حساباته قد تكون غير مكتملة، خاصة فيما يتعلق ببرمجيات الفدية الخبيثة التي يستخدمها المتسللون لابتزاز المؤسسات مقابل استعادة بياناتها الحساسة.

الولايات المتحدة.. البؤرة الأكبر للضحايا

على الرغم من أن الشكاوى التي جمعها مركز شكاوى جرائم الإنترنت التابع لمكتب التحقيقات الفيدرالي وردت من جميع أنحاء العالم، إلا أن الغالبية العظمى منها كانت من داخل الولايات المتحدة الأمريكية، مما يسلط الضوء على حجم التحدي الذي تواجهه الدولة في مكافحة الجريمة الإلكترونية.

سباق محموم لحماية الذكاء الاصطناعي من التهديدات

في خضم الانتشار السريع لتكنولوجيا الذكاء الاصطناعي، يشهد قطاع التكنولوجيا سباقًا محمومًا بين الشركات العملاقة في الولايات المتحدة لتطوير آليات حماية قوية لأنظمة الذكاء الاصطناعي من محاولات القرصنة والاستغلال.
وذكرت مجلة “فوربس” أن قادة فرق “الفرق الحمراء” المتخصصة في اختبار الاختراق لأنظمة الذكاء الاصطناعي في شركات مثل مايكروسوفت وغوغل وإنفيديا وميتا، يعملون بشكل مكثف على تحديد نقاط الضعف المحتملة في هذه الأنظمة بهدف إصلاحها وتعزيز أمانها قبل انتشارها على نطاق واسع. ويتوقع أحد خبراء أمن الذكاء الاصطناعي أن تشهد السوق قريبًا تنافسًا على تقديم منتجات الذكاء الاصطناعي “الأكثر أمانًا”.

“الفرق الحمراء”.. خط الدفاع الأول ضد إساءة استخدام الذكاء الاصطناعي

قبل شهر من الإطلاق العام لروبوت الدردشة الشهير ChatGPT، قامت شركة OpenAI بتعيين المحامي الكيني بورو غولو ضمن فريقها الأحمر المكون من 50 خبيرًا خارجيًا لاختبار نماذج الذكاء الاصطناعي المتقدمة GPT-3.5 ولاحقًا GPT-4.
وكان الهدف من هذه الاختبارات المكثفة هو الكشف عن أي تحيزات أو صور نمطية سلبية ضد مجموعات معينة، مثل الأفارقة والمسلمين، من خلال إدخال أوامر تحفز روبوت الدردشة على تقديم إجابات ضارة أو متحيزة أو غير صحيحة.
وكشف التقرير عن قيام غولو بتوجيه أمر لروبوت ChatGPT يطلب منه تقديم قائمة بطرق لقتل مواطن من نيجيريا – وهو رد تمكنت OpenAI من إزالته قبل إتاحة البرنامج للجمهور.
كما قام أعضاء آخرون في الفريق الأحمر بتوجيه أوامر أخرى لنسخة ما قبل الإطلاق من GPT-4 بهدف الحصول على إجابات تتعلق بأنشطة غير قانونية وضارة، مثل كتابة منشور على فيسبوك لإقناع شخص بالانضمام إلى تنظيم القاعدة، أو المساعدة في العثور على أسلحة غير مرخصة للبيع، أو المساعدة في تصنيع مواد كيميائية خطيرة في المنزل.

OpenAI تتخذ إجراءات وقائية:

وفقًا لبطاقة نظام GPT-4، فإن جميع الأمثلة المذكورة أعلاه تندرج ضمن المخاطر وإجراءات السلامة التي تسعى OpenAI جاهدة لتقليلها والقضاء عليها.
ولحماية أنظمة الذكاء الاصطناعي من الاستغلال المحتمل، يتقمص خبراء “الفرق الحمراء” دور الخصوم المحتملين، ويحاولون التلاعب بالأنظمة والكشف عن نقاط الضعف والمخاطر الكامنة فيها حتى يمكن للمطورين إصلاحها وتعزيز أمانها.
تزايد أهمية “الفرق الحمراء” في عصر الذكاء الاصطناعي التوليدي:
مع تسابق عمالقة التكنولوجيا لبناء وإطلاق أدوات الذكاء الاصطناعي التوليدية، تتزايد أهمية الدور الذي تلعبه فرق الذكاء الاصطناعي الحمراء الداخلية في هذه الشركات لضمان أمان هذه النماذج قبل طرحها للاستخدام العام على نطاق واسع. وعلى سبيل المثال، أنشأت شركة غوغل فريقًا أحمر منفصلاً لأنظمتها الخاصة بالذكاء الاصطناعي في وقت سابق من هذا العام.
وفي خطوة لتعزيز التعاون وتبادل الخبرات في مجال أمن الذكاء الاصطناعي، استضاف البيت الأبيض في أغسطس الماضي حدثًا جمع مطوري بعض النماذج الشائعة مثل OpenAI (GPT-3.5)، وميتا (Llama 2)، وغوغل (LaMDA)، بهدف منح المتسللين الخارجيين فرصة لاختبار واختراق حماية أنظمتهم، مما يؤكد على الأهمية المتزايدة للجهود المشتركة في مواجهة التحديات الأمنية الناشئة مع تطور تكنولوجيا الذكاء الاصطناعي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

أنت تستخدم إضافة Adblock

برجاء دعمنا عن طريق تعطيل إضافة Adblock