الناس بدأوا بالفعل في محاولة إقناع ChatGPT بكتابة برامج ضارة

صورة-جيتي-1245391800.jpg

تسببت شات جي بي تي الذكية في إثارة الكثير من الحماس في الفترة الزمنية القصيرة التي كانت متاحة فيها، ويبدو أن بعض الأشخاص قاموا بالتجنيد منها لمحاولة توليد رمز ضار.

ChatGPT هو أداة معالجة لغوية مدعومة بالذكاء الاصطناعي تتفاعل مع المستخدمين بطريقة محادثاتية تشبه الإنسان. بالإضافة إلى ذلك، يمكن استخدامه للمساعدة في مهام مثل كتابة الرسائل الإلكترونية والمقالات والشفرة.

أيضًا: ما هو ChatGPT ولماذا هو مهم؟ ما تحتاج إلى معرفته

صدرت أداة الدردشة بواسطة مختبر بحوث الذكاء الاصطناعي OpenAI في نوفمبر و أثارت اهتمامًا واسعًا ومناقشات حول كيفية تطوير الذكاء الاصطناعي واستخدامه في المستقبل.

ولكن مثل أي أداة أخرى من الأدوات، إذا كانت في الأيدي الخطأ قد يتم استخدامها لأغراض شريرة؛ ويقول الباحثون في مجال الأمن السيبراني في Check Point إن مستخدمي المجتمعات السفلية للقرصنة الإلكترونية يتجربون بالفعل كيف يمكن استخدام ChatGPT للمساعدة في تيسير الهجمات السيبرانية ودعم العمليات الخبيثة.

"يمكن لفاعلي الأخطار الذين لديهم معرفة فنية منخفضة جدًا - حتى معرفة تقنية صفر - أن يكونوا قادرين على إنشاء أدوات خبيثة. كما يمكن أن يجعل العمليات اليومية للمجرمين الإلكترونيين المتطورين أكثر كفاءة وأسهل - مثل إنشاء أجزاء مختلفة من سلسلة العدوى ،" صرح Sergey Shykevich، مدير مجموعة مخاطر التهديد في Check Point لـ ZDNET.

تحظر شروط الخدمة الخاصة بـ OpenAI صراحة إنشاء البرامج الضارة، والتي تعرفها على أنها "المحتوى الذي يحاول إنشاء برامج الفدية، ومسجلات الضغط، والفيروسات، أو غيرها من البرامج التي تهدف إلى فرض بعض المستويات من الأذى". كما تحظر محاولات إنشاء البريد العشوائي، وكذلك حالات الاستخدام الموجهة للجريمة الإلكترونية.

ومع ذلك، فإن تحليل الأنشطة في العديد من منتديات القرصنة السفلية الرئيسية يشير إلى أن المجرمين السيبرانيين يستخدمون بالفعل تطبيق ChatGPT لتطوير أدوات خبيثة - وفي بعض الحالات، يتيح ذلك للمجرمين السيبرانيين ذوي المستوى المنخفض والذين لا يمتلكون مهارات التطوير أو البرمجة إنشاء برامج البرامج الضارة.

أيضاً: مستقبل مخيف للإنترنت: كيف سيشكل تقنية الغد تهديدات أكبر للأمان السيبراني

في إحدى موضوعات المنتدى التي ظهرت في نهاية ديسمبر ، وصف المرسل كيف كان يستخدم ChatGPT لإعادة إنشاء سلالات البرامج الضارة والتقنيات الموضحة في الأبحاث والشروحات حول البرامج الضارة الشائعة.

بفعل ذلك، تمكنوا من إنشاء برنامج ضار يستهدف المعلومات ويعمل بلغة بايثون يبحث عن الملفات الشائعة مثل مستندات Microsoft Office وملفات PDF والصور، وينسخها ثم يقوم بتحميلها إلى خادم نقل الملفات عبر بروتوكول نقل الملفات.

نفس المستخدم الذي أظهر أيضًا كيف استخدم ChatGPT لإنشاء برامج ضارة مبنية بلغة جافا، والتي يمكن استخدام PowerShell لتحميل وتشغيل برامج ضارة أخرى على الأنظمة المصابة بشكل هامشي.

لاحظ الباحثون أن المستخدم في المنتدى الذي ينشر هذه المواضيع يبدو "موجهًا نحو التكنولوجيا" ويشارك المشاركات لعرض كيفية استخدام أدوات الذكاء الاصطناعي للأغراض الخبيثة للمجرمين غير المؤهلين تقنيًا، مع أمثلة حقيقية لكيفية القيام بذلك.

قام أحد المستخدمين بنشر برنامج Python ، وقال إنه أول برنامج قاموا بإنشائه على الإطلاق. بعد النقاش مع عضو آخر في المنتدى ، قالوا إن ChatGPT ساعدتهم في إنشائه.

تشير تحليل النص البرمجي إلى أنه مصمم لتشفير وفك تشفير الملفات، وهو أمر يمكن تحويله بعض الشيء إلى برمجيات الفدية ومن ثم قد يؤدي ذلك إلى إنتاج حملات ابتزازية متنامية من قبل مجرمي الإنترنت ذوي المستويات المنخفضة.

"يمكن بالطبع استخدام كل من الشيفرة المذكورة بطريقة حميدة. ومع ذلك، يمكن بسهولة تعديل هذا البرنامج النصي لتشفير جهاز شخص ما بشكل كامل دون أي تفاعل من المستخدم. على سبيل المثال، يمكن أن يتحول البرنامج النصي إلى برنامج فدية إذا تم حل مشكلات البرمجة والصيغة بشكل صحيح"، وفقًا لتصريحات من Check Point.

"سيتطلب الأمر بعض التحسينات في الشفرة و الصياغة، ولكن عند التشغيل، يمكن لهذه الأداة تنفيذ أنواع مشابهة من عمليات الفدية"، قال شيكيفيتش.

أيضاً: الأمن السيبراني: هذه هي الأشياء الجديدة التي يتعين القلق منها في عام 2023

وليس فقط تطوير البرامج الضارة التي يقوم المجرمون السيبرانيون بتجربتها في ChatGPT؛ ففي ليلة رأس السنة، نشر عضو في منتدى سري موضوعًا يوضح كيف استخدم الأداة لإنشاء نصوص يمكنها تشغيل سوق مظلم تلقائي لشراء وبيع تفاصيل حسابات مسروقة ومعلومات بطاقات الائتمان والبرامج الضارة والمزيد.

حتى أظهر المجرم الإلكتروني قطعة من الشيفرة التي تم إنشاؤها باستخدام API من جهة خارجية للحصول على أحدث الأسعار لعملات مونيرو وبيتكوين وإيثريوم كجزء من نظام دفع لسوق مظلمة على الويب.

من الصعب معرفة ما إذا كانت الأنشطة السيبرانية الخبيثة التي تم إنشاؤها باستخدام ChatGPT تعمل حاليًا في الطبيعة البرية، وذلك لأنه كما يوضح Sykevich، "من وجهة نظر فنية، من الصعب للغاية معرفة ما إذا كان البرمجيات الخبيثة المحددة قد تم كتابتها باستخدام ChatGPT أم لا".

ولكن مع نمو الاهتمام بـ ChatGPT وأدوات الذكاء الاصطناعي الأخرى ، فإنها ستجذب اهتمام القراصنة والنصابين الذين يسعون إلى استغلال التكنولوجيا للمساعدة في تنفيذ حملات خبيثة بتكلفة منخفضة وبأقل قدر من الجهد اللازم. قام ZDNET بالاتصال بـ OpenAI للحصول على تعليق ، وما زال ينتظر الرد في وقت النشر.

المقالات ذات الصلة

عرض المزيد >>