Peringatan Risiko AI Tanpa Batas: WormGPT dan yang lainnya mungkin menjadi ancaman baru bagi industri enkripsi

robot
Pembuatan abstrak sedang berlangsung

Kotak Pandora: Meneliti Ancaman Potensial dari Model Besar Tanpa Batas terhadap Industri Enkripsi

Dengan pesatnya perkembangan teknologi kecerdasan buatan, dari seri GPT ke Gemini, hingga berbagai model sumber terbuka, AI yang canggih sedang mengubah cara kerja dan kehidupan kita secara mendalam. Namun, seiring kemajuan teknologi, sebuah masalah yang patut diwaspadai juga mulai muncul - kemunculan model bahasa besar yang tidak terbatas atau berniat jahat beserta risiko potensialnya.

LLM tanpa batas merujuk pada model bahasa yang dirancang, dimodifikasi, atau "di-jailbreak" secara khusus untuk menghindari mekanisme keamanan dan batasan etika yang tertanam dalam model arus utama. Pengembang LLM arus utama biasanya menginvestasikan banyak sumber daya untuk mencegah model mereka digunakan untuk menghasilkan ucapan kebencian, informasi palsu, kode jahat, atau memberikan instruksi untuk kegiatan ilegal. Namun, dalam beberapa tahun terakhir, beberapa individu atau organisasi dengan motivasi yang berbeda mulai mencari atau mengembangkan model tanpa batas mereka sendiri. Artikel ini akan menguraikan alat LLM tanpa batas yang khas, menganalisis potensi penyalahgunaan mereka di industri enkripsi, dan membahas tantangan keamanan terkait serta strategi penanganannya.

Kotak Pandora: Bagaimana model besar tanpa batas mengancam keamanan industri enkripsi?

Potensi Ancaman LLM Tanpa Batas

Tugas yang dulunya membutuhkan keterampilan profesional, seperti menulis kode jahat, membuat email phishing, merencanakan penipuan, kini dapat dengan mudah dilakukan oleh orang biasa tanpa pengalaman pemrograman dengan bantuan LLM tanpa batas. Penyerang hanya perlu mendapatkan bobot dan sumber kode model sumber terbuka, kemudian melakukan fine-tuning pada dataset yang berisi konten jahat, pernyataan bias, atau instruksi ilegal, untuk menciptakan alat serangan yang disesuaikan.

Mode ini membawa berbagai risiko: penyerang dapat "memodifikasi" model dengan menargetkan sasaran tertentu, menghasilkan konten yang lebih menipu, dan melewati pemeriksaan konten serta batasan keamanan LLM konvensional; model ini juga dapat digunakan untuk dengan cepat menghasilkan variasi kode situs phishing, atau menyesuaikan teks penipuan untuk berbagai platform sosial; pada saat yang sama, aksesibilitas dan kemampuan untuk memodifikasi model sumber terbuka juga memperburuk pembentukan dan penyebaran ekosistem AI bawah tanah, menyediakan lahan subur untuk perdagangan dan pengembangan ilegal. Berikut adalah beberapa LLM tanpa batas yang khas dan potensi ancamannya:

WormGPT: versi hitam GPT

WormGPT adalah LLM jahat yang dijual secara terbuka di forum bawah tanah, yang pengembangnya secara tegas menyatakan bahwa ia tidak memiliki batasan moral. Ini didasarkan pada model sumber terbuka seperti GPT-J 6B dan dilatih pada sejumlah besar data terkait perangkat lunak jahat. Pengguna membayar minimum 189 dolar untuk mendapatkan izin penggunaan selama sebulan. Penggunaan WormGPT yang paling terkenal adalah untuk menghasilkan email bisnis yang sangat realistis dan meyakinkan untuk penyerangan (BEC) serta email phishing. Penyalahgunaan tipikalnya di dalam skenario enkripsi termasuk:

  • Menghasilkan email/informasi phishing: Meniru bursa cryptocurrency, dompet, atau proyek terkenal untuk mengirim permintaan "verifikasi akun" kepada pengguna, mendorong mereka untuk mengklik tautan berbahaya atau mengungkapkan kunci pribadi/benih.
  • Menulis kode berbahaya: Membantu penyerang dengan tingkat keterampilan teknis yang lebih rendah untuk menulis kode berbahaya yang mencuri file dompet, memantau papan klip, mencatat ketikan, dan fungsi lainnya.
  • Menggerakkan penipuan otomatis: membalas secara otomatis kepada calon korban, mengarahkan mereka untuk berpartisipasi dalam airdrop atau proyek investasi palsu.

DarkBERT: pedang bermata dua untuk konten dark web

DarkBERT adalah model bahasa yang dikembangkan oleh para peneliti dari Korea Advanced Institute of Science and Technology (KAIST) bekerja sama dengan S2W Inc., yang dilatih sebelumnya khusus pada data dark web (seperti forum, pasar gelap, dan data yang bocor). Tujuannya adalah untuk membantu peneliti keamanan siber dan lembaga penegak hukum agar lebih memahami ekosistem dark web, melacak aktivitas ilegal, mengidentifikasi ancaman potensial, dan mendapatkan intelijen ancaman.

Meskipun desain awal DarkBERT bersifat positif, data sensitif yang dikuasainya tentang dunia gelap, metode serangan, strategi transaksi ilegal, dan lainnya, jika diperoleh oleh pelaku jahat atau digunakan untuk melatih model besar tanpa batas dengan teknologi serupa, konsekuensinya bisa sangat parah. Potensi penyalahgunaan dalam skenario enkripsi termasuk:

  • Melaksanakan penipuan yang tepat: Mengumpulkan informasi pengguna enkripsi dan tim proyek untuk penipuan sosial.
  • Meniru metode kejahatan: Menduplikasi strategi pencurian koin dan pencucian uang yang matang di dark web.

FraudGPT: Swiss Army Knife Penipuan Jaringan

FraudGPT mengklaim sebagai versi upgrade dari WormGPT, dengan fungsi yang lebih lengkap, terutama dijual di dark web dan forum hacker, dengan biaya bulanan berkisar dari 200 dolar hingga 1.700 dolar. Penyalahgunaan tipikalnya dalam skenario enkripsi mencakup:

  • Proyek enkripsi palsu: menghasilkan whitepaper, situs resmi, peta jalan, dan salinan pemasaran yang tampak nyata untuk melaksanakan ICO/IDO palsu.
  • Menghasilkan halaman phishing secara massal: Buat dengan cepat halaman login yang meniru bursa enkripsi terkenal atau antarmuka koneksi dompet.
  • Aktivitas tentara media sosial: Memproduksi komentar dan propaganda palsu secara besar-besaran, mendukung token penipuan atau mencemarkan nama proyek pesaing.
  • Serangan rekayasa sosial: Chatbot ini dapat meniru percakapan manusia, membangun kepercayaan dengan pengguna yang tidak menyadari, dan memancing mereka untuk secara tidak sengaja membocorkan informasi sensitif atau melakukan tindakan berbahaya.

GhostGPT: asisten AI yang tidak terikat oleh norma moral

GhostGPT adalah AI chatbot yang secara jelas diposisikan sebagai robot percakapan tanpa batasan moral, dan cara penyalahgunaan tipikalnya dalam skenario enkripsi meliputi:

  • Serangan phishing tingkat lanjut: menghasilkan email phishing yang sangat realistis, menyamar sebagai permintaan verifikasi KYC palsu, peringatan keamanan, atau pemberitahuan pembekuan akun yang diterbitkan oleh bursa utama.
  • Generasi kode jahat kontrak pintar: Tanpa dasar pemrograman, penyerang dapat dengan cepat menghasilkan kontrak pintar yang mengandung pintu belakang tersembunyi atau logika penipuan dengan bantuan GhostGPT, yang digunakan untuk penipuan Rug Pull atau menyerang protokol DeFi.
  • Pencuri Cryptocurrency Polimorfik: Menghasilkan perangkat lunak berbahaya yang memiliki kemampuan deformasi berkelanjutan, digunakan untuk mencuri file dompet, kunci pribadi, dan frasa pemulihan. Karakteristik polimorfiknya membuat perangkat lunak keamanan berbasis tanda tangan tradisional sulit untuk mendeteksi.
  • Serangan rekayasa sosial: Dengan skrip percakapan yang dihasilkan AI, penyerang dapat menerapkan bot di platform sosial untuk membujuk pengguna agar terlibat dalam pencetakan NFT palsu, airdrop, atau proyek investasi.
  • Penipuan pemalsuan mendalam: Dengan bantuan alat AI lainnya, GhostGPT dapat digunakan untuk menghasilkan suara pendiri proyek enkripsi, investor, atau eksekutif bursa yang dipalsukan, untuk melaksanakan penipuan telepon atau invasi email bisnis (BEC).

Venice.ai: Risiko potensial akses tanpa sensor

Venice.ai menyediakan akses ke berbagai LLM, termasuk beberapa model yang memiliki pengawasan yang lebih sedikit atau pembatasan yang longgar. Ini memposisikan dirinya sebagai gerbang terbuka bagi pengguna untuk menjelajahi berbagai kemampuan LLM, menawarkan model-model yang paling canggih, paling akurat, dan tidak diawasi untuk pengalaman AI yang benar-benar tanpa batas, tetapi juga dapat disalahgunakan oleh individu yang tidak bertanggung jawab untuk menghasilkan konten jahat. Risiko dari platform ini meliputi:

  • Menghindari sensor untuk menghasilkan konten berbahaya: Penyerang dapat memanfaatkan model-model di platform yang memiliki batasan lebih sedikit untuk menghasilkan template phishing, propaganda palsu, atau ide serangan.
  • Menurunkan ambang batas untuk petunjuk rekayasa: bahkan jika penyerang tidak memiliki keterampilan "jailbreak" yang tinggi, mereka masih dapat dengan mudah mendapatkan keluaran yang sebelumnya terbatas.
  • Iterasi skrip serangan yang dipercepat: penyerang dapat memanfaatkan platform ini untuk dengan cepat menguji respons berbagai model terhadap instruksi jahat, mengoptimalkan skrip penipuan dan metode serangan.

Kesimpulan

Kemunculan LLM tanpa batas menandakan bahwa keamanan siber menghadapi paradigma serangan baru yang lebih kompleks, berskala lebih besar, dan lebih otomatis. Model-model ini tidak hanya menurunkan ambang serangan, tetapi juga membawa ancaman baru yang lebih tersembunyi dan menipu.

Dalam permainan yang terus meningkat ini, semua pihak dalam ekosistem keamanan hanya dapat bekerja sama untuk menghadapi risiko di masa depan: di satu sisi, perlu meningkatkan investasi dalam teknologi deteksi, mengembangkan kemampuan untuk mengenali dan mengintersepsi konten phishing yang dihasilkan oleh LLM jahat, eksploitasi kerentanan kontrak pintar, dan kode berbahaya; di sisi lain, juga harus mendorong pembangunan kemampuan pencegahan jailbreak model, serta mengeksplorasi mekanisme watermark dan pelacakan, agar dapat melacak sumber konten berbahaya dalam skenario kunci seperti keuangan dan pembuatan kode; Selain itu, perlu juga membangun norma etika dan mekanisme pengawasan yang baik untuk membatasi pengembangan dan penyalahgunaan model jahat dari akar penyebab.

Kotak Pandora: Bagaimana model besar tanpa batas mengancam keamanan industri enkripsi?

Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Hadiah
  • 4
  • Bagikan
Komentar
0/400
GasFeeDodgervip
· 3jam yang lalu
Teknologi tidak bersalah dan tidak ada solusi.
Lihat AsliBalas0
BankruptcyArtistvip
· 07-10 22:01
Pasti sudah tamat.
Lihat AsliBalas0
SilentObservervip
· 07-10 21:50
Risiko tidak berhenti di sini
Lihat AsliBalas0
just_another_walletvip
· 07-10 21:44
Segera membutuhkan kepatuhan regulasi
Lihat AsliBalas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)