صندوق باندورا: مناقشة التهديدات المحتملة للنماذج الكبيرة غير المحدودة على صناعة التشفير
مع التطور السريع لتكنولوجيا الذكاء الاصطناعي، من سلسلة GPT إلى Gemini، وصولاً إلى نماذج المصادر المفتوحة، فإن الذكاء الاصطناعي المتقدم يغير بشكل عميق طرق عملنا وحياتنا. ومع ذلك، فإن التقدم التكنولوجي يأتي معه مشكلة يجب الانتباه إليها - ظهور نماذج اللغة الكبيرة غير المحدودة أو الضارة والمخاطر المحتملة المرتبطة بها.
تشير نماذج اللغة غير المحدودة إلى تلك التي تم تصميمها أو تعديلها أو "اختراقها" بشكل خاص لتجنب الآليات الأمنية المدمجة والقيود الأخلاقية للنماذج السائدة. غالبًا ما يستثمر مطورو النماذج السائدة موارد كبيرة لمنع استخدام نماذجهم في إنشاء خطاب الكراهية، أو المعلومات المضللة، أو الأكواد الضارة، أو تقديم التعليمات للأنشطة غير القانونية. ولكن في السنوات الأخيرة، بدأ بعض الأفراد أو المنظمات، بدوافع مختلفة، في البحث عن نماذج غير مقيدة أو تطويرها بأنفسهم. ستقوم هذه المقالة بتفصيل أدوات نماذج اللغة غير المحدودة النموذجية، وتحليل طرق إساءة استخدامها المحتملة في صناعة التشفير، واستكشاف التحديات الأمنية ذات الصلة واستراتيجيات الاستجابة.
التهديدات المحتملة لـ LLM غير المحدود
المهام التي كانت تتطلب مهارات متخصصة في الماضي، مثل كتابة التعليمات البرمجية الضارة، وإنشاء رسائل البريد الإلكتروني الاحتيالية، وتخطيط الاحتيالات، أصبحت اليوم سهلة التنفيذ بمساعدة نماذج اللغة الكبيرة غير المحدودة، حتى الأشخاص العاديون الذين ليس لديهم خبرة في البرمجة يمكنهم البدء بسهولة. يحتاج المهاجمون فقط إلى الحصول على أوزان النماذج مفتوحة المصدر والشيفرة المصدرية، ثم إجراء تعديل دقيق على مجموعة البيانات التي تحتوي على محتوى ضار أو آراء متحيزة أو تعليمات غير قانونية، ليتمكنوا من إنشاء أدوات هجوم مخصصة.
هذا النموذج يجلب مخاطر متعددة: يمكن للمهاجمين "تعديل" النماذج المستهدفة لإنشاء محتوى أكثر خداعًا، مما يتجاوز مراجعة المحتوى والقيود الأمنية للنماذج اللغوية الكبيرة التقليدية؛ كما يمكن استخدام النموذج بسرعة لتوليد متغيرات من الشيفرة لمواقع التصيد، أو تخصيص نصوص الاحتيال لمختلف منصات التواصل الاجتماعي؛ في الوقت نفسه، فإن إمكانية الوصول إلى النماذج مفتوحة المصدر وقابلية تعديلها تعزز أيضًا تشكيل وانتشار بيئة الذكاء الاصطناعي تحت الأرض، مما يوفر أرضية خصبة للتجارة والتطوير غير القانونيين. فيما يلي بعض النماذج اللغوية الكبيرة غير المحدودة والتهديدات المحتملة لها:
WormGPT: النسخة السوداء من GPT
WormGPT هو نموذج LLM خبيث يتم بيعه علنًا في المنتديات المظلمة، حيث أعلن مطوروه بوضوح أنه ليس لديه أي قيود أخلاقية. يعتمد على نماذج مفتوحة المصدر مثل GPT-J 6B وتم تدريبه على كمية كبيرة من البيانات المتعلقة بالبرمجيات الخبيثة. يمكن للمستخدمين دفع 189 دولارًا على الأقل للحصول على إذن استخدام لمدة شهر. الاستخدام الأكثر شهرة لـ WormGPT هو إنشاء رسائل بريد إلكتروني تجارية تبدو واقعية للغاية ومقنعة لهجمات البريد الإلكتروني (BEC) وهجمات التصيد. تشمل طرق إساءة الاستخدام النموذجية له في مشهد التشفير:
إنشاء رسائل/معلومات تصيد: تقليد طلبات "تحقق الحساب" من بورصات العملات الرقمية، أو المحافظ، أو المشاريع المعروفة، لإغراء المستخدمين للنقر على روابط خبيثة أو تسريب المفاتيح الخاصة/عبارات الاسترداد.
كتابة رموز خبيثة: مساعدة المهاجمين ذوي المستوى الفني المنخفض في كتابة رموز خبيثة تتضمن سرقة ملفات المحفظة، ومراقبة الحافظة، وتسجيل ضغطات المفاتيح.
قيادة الاحتيال الآلي: الرد التلقائي على الضحايا المحتملين، وتوجيههم للمشاركة في إيردروب أو مشاريع استثمارية وهمية.
DarkBERT: سيف ذو حدين لمحتوى الشبكة المظلمة
DarkBERT هو نموذج لغوي تم تطويره بالتعاون بين باحثي معهد كوريا للعلوم والتكنولوجيا (KAIST) وشركة S2W Inc. تم تدريبه مسبقاً على بيانات الشبكة المظلمة (مثل المنتديات والأسواق السوداء والبيانات المسربة). الهدف منه هو مساعدة الباحثين في مجال الأمن السيبراني والجهات القانونية على فهم أفضل لبيئة الشبكة المظلمة، وتتبع الأنشطة غير القانونية، والتعرف على التهديدات المحتملة، والحصول على معلومات عن التهديدات.
على الرغم من أن التصميم الأساسي لـ DarkBERT كان إيجابيًا، إلا أن البيانات الحساسة التي يمتلكها حول الإنترنت المظلم، وطرق الهجوم، واستراتيجيات التداول غير القانونية، إذا تم الحصول عليها من قبل الفاعلين الخبيثين أو استُخدمت لتدريب نماذج كبيرة غير مقيدة باستخدام تقنيات مشابهة، فإن العواقب ستكون وخيمة. تشمل طرق إساءة الاستخدام المحتملة في سيناريوهات التشفير ما يلي:
تنفيذ الاحتيال الدقيق: جمع معلومات مستخدمي التشفير وفرق المشاريع لاستخدامها في الاحتيال الاجتماعي.
تقليد أساليب الجريمة: تكرار استراتيجيات سرقة العملات وغسلها الناضجة في الشبكة المظلمة.
FraudGPT: سكين الجيش السويسري للاحتيال عبر الإنترنت
FraudGPT تدعي أنها النسخة المطورة من WormGPT، وتتمتع بوظائف أكثر شمولاً، ويتم بيعها بشكل رئيسي في الشبكة المظلمة ومنتديات القراصنة، ويتراوح الاشتراك الشهري من 200 دولار إلى 1,700 دولار. تشمل أساليب إساءة الاستخدام النموذجية لها في مشهد التشفير ما يلي:
مشاريع التشفير المزيفة: إنشاء أوراق بيضاء ومواقع إلكترونية وخرائط طريق ونصوص تسويقية تبدو حقيقية، لتنفيذ ICO/IDO زائف.
إنشاء صفحات تصيد جماعية: إنشاء سريع لصفحات تسجيل الدخول أو واجهات اتصال المحفظة التي تحاكي منصات تداول العملات المشفرة المعروفة.
أنشطة جيش المياه على وسائل التواصل الاجتماعي: إنشاء تعليقات وإعلانات مزيفة على نطاق واسع، لدعم رموز الاحتيال أو تشويه سمعة المشاريع المنافسة.
هجمات الهندسة الاجتماعية: يمكن لهذا الروبوت الدردشة تقليد محادثات البشر، وبناء الثقة مع المستخدمين غير المدركين، مما يغريهم عن غير قصد بكشف معلومات حساسة أو تنفيذ عمليات ضارة.
GhostGPT: مساعد AI غير مقيد بالأخلاق
GhostGPT هو روبوت محادثة AI محدد بوضوح بأنه بدون قيود أخلاقية، وتشمل طرق إساءة استخدامه النموذجية في مشهد التشفير ما يلي:
هجمات الصيد المتقدمة: إنشاء رسائل بريد إلكتروني مزيفة للغاية تصيد، تتظاهر بأنها طلبات تحقق KYC مزيفة أو تنبيهات أمان أو إشعارات تجميد حسابات من بورصات رئيسية.
توليد الشيفرة الخبيثة للعقود الذكية: دون الحاجة إلى أساس برمجي، يمكن للمهاجمين استخدام GhostGPT لتوليد عقود ذكية تحتوي على أبواب خلفية مخفية أو منطق احتيالي، لاستخدامها في خدع Rug Pull أو لمهاجمة بروتوكولات DeFi.
أداة سرقة العملات المشفرة متعددة الأشكال: توليد برامج ضارة ذات قدرة على التحول المستمر، لسرقة ملفات المحفظة والمفاتيح الخاصة وعبارات الاسترداد. تجعل خصائصها متعددة الأشكال من الصعب على برامج الأمان التقليدية المعتمدة على التوقيع اكتشافها.
هجمات الهندسة الاجتماعية: من خلال دمج نصوص المحادثة التي تولدها الذكاء الاصطناعي، يمكن للمهاجمين نشر روبوتات على منصات التواصل الاجتماعي، لإغراء المستخدمين بالمشاركة في سك NFT مزيف، أو عمليات الإطلاق المجانية، أو مشاريع الاستثمار.
الاحتيال العميق المزيف: بالتعاون مع أدوات الذكاء الاصطناعي الأخرى، يمكن استخدام GhostGPT لإنشاء أصوات مزورة لمؤسسي مشاريع التشفير أو المستثمرين أو كبار المسؤولين في البورصات، لتنفيذ الاحتيال عبر الهاتف أو اختراق رسائل الأعمال (BEC).
Venice.ai: المخاطر المحتملة للوصول دون رقابة
يوفر Venice.ai الوصول إلى مجموعة متنوعة من LLM ، بما في ذلك بعض النماذج التي تخضع لرقابة أقل أو قيود أكثر مرونة. إنه يضع نفسه كبوابة مفتوحة للمستخدمين لاستكشاف قدرات LLM المختلفة ، ويقدم نماذج متطورة ودقيقة وغير خاضعة للرقابة لتحقيق تجربة AI غير محدودة حقًا ، ولكن يمكن أيضًا أن تُستخدم من قبل جهات غير قانونية لتوليد محتوى ضار. تشمل المخاطر المتعلقة بالمنصة ما يلي:
تجاوز الرقابة لإنشاء محتوى ضار: يمكن للمهاجمين استخدام النماذج ذات القيود الأقل في المنصة لإنشاء قوالب تصيد أو دعاية مضللة أو أفكار هجوم.
تقليل عتبة هندسة التلميحات: حتى لو لم يكن لدى المهاجمين مهارات "كسر الحماية" المتقدمة، يمكنهم بسهولة الحصول على المخرجات التي كانت مقيدة في الأصل.
تسريع عملية اختبار الهجمات: يمكن للمهاجمين استخدام هذه المنصة لاختبار استجابة نماذج مختلفة للأوامر الخبيثة بسرعة، وتحسين نصوص الاحتيال وأساليب الهجوم.
خاتمة
ظهور LLM غير المحدود يشير إلى أن الأمن السيبراني يواجه نموذج هجوم جديد أكثر تعقيدًا وذو قدرة أكبر على التوسع والأتمتة. هذه النماذج لا تقلل فقط من عتبة الهجوم، بل تجلب أيضًا تهديدات جديدة أكثر خفاءً وخداعًا.
في هذه اللعبة التي تتصاعد فيها الهجمات والدفاعات، لا يمكن لأطراف النظام البيئي الأمني أن تتعاون وتبذل الجهود للتعامل مع المخاطر المستقبلية: من ناحية، يجب زيادة الاستثمار في تقنيات الكشف، وتطوير تقنيات قادرة على التعرف على المحتوى الاحتيالي الذي تم إنشاؤه بواسطة LLM الضار، واستغلال ثغرات العقود الذكية، والرموز الضارة؛ ومن ناحية أخرى، يجب تعزيز قدرة النموذج على منع كسر الحماية، واستكشاف آليات العلامة المائية والتتبع، من أجل تتبع مصادر المحتوى الضار في السيناريوهات الحيوية مثل التمويل وتوليد الرموز؛ علاوة على ذلك، يجب إنشاء وتنظيم معايير أخلاقية صارمة وآليات رقابة، للحد من تطوير النماذج الضارة وإساءة استخدامها من الجذور.
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
تحذير من مخاطر الذكاء الاصطناعي غير المحدودة: قد تصبح WormGPT وغيرها تهديدات جديدة لصناعة التشفير
صندوق باندورا: مناقشة التهديدات المحتملة للنماذج الكبيرة غير المحدودة على صناعة التشفير
مع التطور السريع لتكنولوجيا الذكاء الاصطناعي، من سلسلة GPT إلى Gemini، وصولاً إلى نماذج المصادر المفتوحة، فإن الذكاء الاصطناعي المتقدم يغير بشكل عميق طرق عملنا وحياتنا. ومع ذلك، فإن التقدم التكنولوجي يأتي معه مشكلة يجب الانتباه إليها - ظهور نماذج اللغة الكبيرة غير المحدودة أو الضارة والمخاطر المحتملة المرتبطة بها.
تشير نماذج اللغة غير المحدودة إلى تلك التي تم تصميمها أو تعديلها أو "اختراقها" بشكل خاص لتجنب الآليات الأمنية المدمجة والقيود الأخلاقية للنماذج السائدة. غالبًا ما يستثمر مطورو النماذج السائدة موارد كبيرة لمنع استخدام نماذجهم في إنشاء خطاب الكراهية، أو المعلومات المضللة، أو الأكواد الضارة، أو تقديم التعليمات للأنشطة غير القانونية. ولكن في السنوات الأخيرة، بدأ بعض الأفراد أو المنظمات، بدوافع مختلفة، في البحث عن نماذج غير مقيدة أو تطويرها بأنفسهم. ستقوم هذه المقالة بتفصيل أدوات نماذج اللغة غير المحدودة النموذجية، وتحليل طرق إساءة استخدامها المحتملة في صناعة التشفير، واستكشاف التحديات الأمنية ذات الصلة واستراتيجيات الاستجابة.
التهديدات المحتملة لـ LLM غير المحدود
المهام التي كانت تتطلب مهارات متخصصة في الماضي، مثل كتابة التعليمات البرمجية الضارة، وإنشاء رسائل البريد الإلكتروني الاحتيالية، وتخطيط الاحتيالات، أصبحت اليوم سهلة التنفيذ بمساعدة نماذج اللغة الكبيرة غير المحدودة، حتى الأشخاص العاديون الذين ليس لديهم خبرة في البرمجة يمكنهم البدء بسهولة. يحتاج المهاجمون فقط إلى الحصول على أوزان النماذج مفتوحة المصدر والشيفرة المصدرية، ثم إجراء تعديل دقيق على مجموعة البيانات التي تحتوي على محتوى ضار أو آراء متحيزة أو تعليمات غير قانونية، ليتمكنوا من إنشاء أدوات هجوم مخصصة.
هذا النموذج يجلب مخاطر متعددة: يمكن للمهاجمين "تعديل" النماذج المستهدفة لإنشاء محتوى أكثر خداعًا، مما يتجاوز مراجعة المحتوى والقيود الأمنية للنماذج اللغوية الكبيرة التقليدية؛ كما يمكن استخدام النموذج بسرعة لتوليد متغيرات من الشيفرة لمواقع التصيد، أو تخصيص نصوص الاحتيال لمختلف منصات التواصل الاجتماعي؛ في الوقت نفسه، فإن إمكانية الوصول إلى النماذج مفتوحة المصدر وقابلية تعديلها تعزز أيضًا تشكيل وانتشار بيئة الذكاء الاصطناعي تحت الأرض، مما يوفر أرضية خصبة للتجارة والتطوير غير القانونيين. فيما يلي بعض النماذج اللغوية الكبيرة غير المحدودة والتهديدات المحتملة لها:
WormGPT: النسخة السوداء من GPT
WormGPT هو نموذج LLM خبيث يتم بيعه علنًا في المنتديات المظلمة، حيث أعلن مطوروه بوضوح أنه ليس لديه أي قيود أخلاقية. يعتمد على نماذج مفتوحة المصدر مثل GPT-J 6B وتم تدريبه على كمية كبيرة من البيانات المتعلقة بالبرمجيات الخبيثة. يمكن للمستخدمين دفع 189 دولارًا على الأقل للحصول على إذن استخدام لمدة شهر. الاستخدام الأكثر شهرة لـ WormGPT هو إنشاء رسائل بريد إلكتروني تجارية تبدو واقعية للغاية ومقنعة لهجمات البريد الإلكتروني (BEC) وهجمات التصيد. تشمل طرق إساءة الاستخدام النموذجية له في مشهد التشفير:
DarkBERT: سيف ذو حدين لمحتوى الشبكة المظلمة
DarkBERT هو نموذج لغوي تم تطويره بالتعاون بين باحثي معهد كوريا للعلوم والتكنولوجيا (KAIST) وشركة S2W Inc. تم تدريبه مسبقاً على بيانات الشبكة المظلمة (مثل المنتديات والأسواق السوداء والبيانات المسربة). الهدف منه هو مساعدة الباحثين في مجال الأمن السيبراني والجهات القانونية على فهم أفضل لبيئة الشبكة المظلمة، وتتبع الأنشطة غير القانونية، والتعرف على التهديدات المحتملة، والحصول على معلومات عن التهديدات.
على الرغم من أن التصميم الأساسي لـ DarkBERT كان إيجابيًا، إلا أن البيانات الحساسة التي يمتلكها حول الإنترنت المظلم، وطرق الهجوم، واستراتيجيات التداول غير القانونية، إذا تم الحصول عليها من قبل الفاعلين الخبيثين أو استُخدمت لتدريب نماذج كبيرة غير مقيدة باستخدام تقنيات مشابهة، فإن العواقب ستكون وخيمة. تشمل طرق إساءة الاستخدام المحتملة في سيناريوهات التشفير ما يلي:
FraudGPT: سكين الجيش السويسري للاحتيال عبر الإنترنت
FraudGPT تدعي أنها النسخة المطورة من WormGPT، وتتمتع بوظائف أكثر شمولاً، ويتم بيعها بشكل رئيسي في الشبكة المظلمة ومنتديات القراصنة، ويتراوح الاشتراك الشهري من 200 دولار إلى 1,700 دولار. تشمل أساليب إساءة الاستخدام النموذجية لها في مشهد التشفير ما يلي:
GhostGPT: مساعد AI غير مقيد بالأخلاق
GhostGPT هو روبوت محادثة AI محدد بوضوح بأنه بدون قيود أخلاقية، وتشمل طرق إساءة استخدامه النموذجية في مشهد التشفير ما يلي:
Venice.ai: المخاطر المحتملة للوصول دون رقابة
يوفر Venice.ai الوصول إلى مجموعة متنوعة من LLM ، بما في ذلك بعض النماذج التي تخضع لرقابة أقل أو قيود أكثر مرونة. إنه يضع نفسه كبوابة مفتوحة للمستخدمين لاستكشاف قدرات LLM المختلفة ، ويقدم نماذج متطورة ودقيقة وغير خاضعة للرقابة لتحقيق تجربة AI غير محدودة حقًا ، ولكن يمكن أيضًا أن تُستخدم من قبل جهات غير قانونية لتوليد محتوى ضار. تشمل المخاطر المتعلقة بالمنصة ما يلي:
خاتمة
ظهور LLM غير المحدود يشير إلى أن الأمن السيبراني يواجه نموذج هجوم جديد أكثر تعقيدًا وذو قدرة أكبر على التوسع والأتمتة. هذه النماذج لا تقلل فقط من عتبة الهجوم، بل تجلب أيضًا تهديدات جديدة أكثر خفاءً وخداعًا.
في هذه اللعبة التي تتصاعد فيها الهجمات والدفاعات، لا يمكن لأطراف النظام البيئي الأمني أن تتعاون وتبذل الجهود للتعامل مع المخاطر المستقبلية: من ناحية، يجب زيادة الاستثمار في تقنيات الكشف، وتطوير تقنيات قادرة على التعرف على المحتوى الاحتيالي الذي تم إنشاؤه بواسطة LLM الضار، واستغلال ثغرات العقود الذكية، والرموز الضارة؛ ومن ناحية أخرى، يجب تعزيز قدرة النموذج على منع كسر الحماية، واستكشاف آليات العلامة المائية والتتبع، من أجل تتبع مصادر المحتوى الضار في السيناريوهات الحيوية مثل التمويل وتوليد الرموز؛ علاوة على ذلك، يجب إنشاء وتنظيم معايير أخلاقية صارمة وآليات رقابة، للحد من تطوير النماذج الضارة وإساءة استخدامها من الجذور.