Cảnh báo rủi ro AI không giới hạn: WormGPT và những cái khác có thể trở thành mối đe dọa mới cho ngành mã hóa

robot
Đang tạo bản tóm tắt

Hộp Pandora: Thảo luận về các mối đe dọa tiềm tàng của mô hình lớn không giới hạn đối với ngành mã hóa

Với sự phát triển nhanh chóng của công nghệ trí tuệ nhân tạo, từ loạt GPT đến Gemini, rồi đến các mô hình mã nguồn mở khác nhau, AI tiên tiến đang thay đổi sâu sắc cách chúng ta làm việc và sinh hoạt. Tuy nhiên, cùng với sự tiến bộ công nghệ, một vấn đề cần cảnh giác cũng dần xuất hiện - sự xuất hiện của các mô hình ngôn ngữ lớn không giới hạn hoặc độc hại và những rủi ro tiềm tàng của chúng.

LLM không giới hạn là những mô hình ngôn ngữ được thiết kế, điều chỉnh hoặc "bẻ khóa" một cách đặc biệt để vượt qua các cơ chế an toàn và giới hạn đạo đức được tích hợp trong các mô hình chính thống. Các nhà phát triển LLM chính thống thường đầu tư rất nhiều nguồn lực để ngăn chặn mô hình của họ được sử dụng để tạo ra những phát ngôn thù hận, thông tin sai lệch, mã độc hại, hoặc cung cấp chỉ dẫn cho các hoạt động bất hợp pháp. Tuy nhiên, trong những năm gần đây, một số cá nhân hoặc tổ chức với động cơ khác nhau đã bắt đầu tìm kiếm hoặc tự phát triển các mô hình không bị hạn chế. Bài viết này sẽ tổng hợp các công cụ LLM không giới hạn điển hình, phân tích cách mà chúng có thể bị lạm dụng trong ngành mã hóa, và thảo luận về các thách thức an toàn liên quan cũng như các chiến lược ứng phó.

Hộp Pandora: Mô hình lớn không giới hạn đe dọa an ninh ngành mã hóa như thế nào?

Mối đe dọa tiềm tàng của LLM không giới hạn

Những nhiệm vụ trước đây cần kỹ năng chuyên môn để hoàn thành, như viết mã độc, tạo email lừa đảo, lập kế hoạch lừa đảo,... nay với sự hỗ trợ của LLM không giới hạn, ngay cả những người bình thường không có kinh nghiệm lập trình cũng có thể dễ dàng tiếp cận. Kẻ tấn công chỉ cần lấy trọng số và mã nguồn của mô hình mã nguồn mở, sau đó tinh chỉnh trên tập dữ liệu chứa nội dung độc hại, phát ngôn thiên lệch hoặc chỉ thị bất hợp pháp, thì có thể tạo ra công cụ tấn công tùy chỉnh.

Mô hình này mang lại nhiều rủi ro: kẻ tấn công có thể "thay đổi" mô hình nhằm mục tiêu cụ thể, tạo ra nội dung lừa dối hơn, vượt qua sự kiểm duyệt và hạn chế an ninh của LLM thông thường; mô hình cũng có thể được sử dụng để nhanh chóng tạo ra các biến thể mã của trang web lừa đảo, hoặc tùy chỉnh nội dung lừa đảo cho các nền tảng mạng xã hội khác nhau; đồng thời, tính khả dụng và khả năng sửa đổi của các mô hình mã nguồn mở cũng đang thúc đẩy sự hình thành và lan rộng của hệ sinh thái AI ngầm, cung cấp một môi trường thuận lợi cho giao dịch và phát triển bất hợp pháp. Dưới đây là một số LLM không bị hạn chế điển hình và các mối đe dọa tiềm tàng của chúng:

WormGPT:phiên bản đen của GPT

WormGPT là một LLM độc hại được bán công khai trên các diễn đàn ngầm, nhà phát triển của nó tuyên bố rõ ràng rằng nó không có bất kỳ giới hạn đạo đức nào. Nó dựa trên các mô hình mã nguồn mở như GPT-J 6B và được đào tạo trên một lượng lớn dữ liệu liên quan đến phần mềm độc hại. Người dùng chỉ cần trả tối thiểu 189 đô la để có quyền sử dụng trong một tháng. Cách sử dụng đáng chú ý nhất của WormGPT là tạo ra các email thương mại giả mạo cực kỳ chân thực và có sức thuyết phục để xâm nhập vào (BEC) và email lừa đảo. Cách lạm dụng điển hình của nó trong bối cảnh mã hóa bao gồm:

  • Tạo email/thông tin lừa đảo: Bắt chước các sàn giao dịch tiền mã hóa, ví hoặc các dự án nổi tiếng để gửi yêu cầu "xác minh tài khoản" đến người dùng, dụ dỗ họ nhấp vào liên kết độc hại hoặc tiết lộ khóa riêng/ cụm từ ghi nhớ.
  • Viết mã độc: Hỗ trợ những kẻ tấn công có trình độ kỹ thuật thấp viết mã độc có chức năng đánh cắp tệp ví, theo dõi bảng tạm, ghi lại bàn phím, v.v.
  • Kích hoạt lừa đảo tự động: Tự động trả lời những nạn nhân tiềm năng, hướng dẫn họ tham gia vào các chương trình airdrop hoặc dự án đầu tư giả.

DarkBERT: thanh gươm hai lưỡi của nội dung mạng tối

DarkBERT là một mô hình ngôn ngữ được phát triển bởi các nhà nghiên cứu của Viện Khoa học và Công nghệ Hàn Quốc (KAIST) hợp tác với S2W Inc., chuyên được huấn luyện trước trên dữ liệu từ dark web (như diễn đàn, chợ đen, dữ liệu bị rò rỉ). Mục đích của nó là giúp các nhà nghiên cứu an ninh mạng và các cơ quan thực thi pháp luật hiểu rõ hơn về hệ sinh thái dark web, theo dõi các hoạt động bất hợp pháp, nhận diện các mối đe dọa tiềm ẩn và thu thập thông tin tình báo về các mối đe dọa.

Mặc dù mục đích thiết kế của DarkBERT là tích cực, nhưng những dữ liệu nhạy cảm về mạng đen mà nó nắm giữ, cũng như các phương thức tấn công, chiến lược giao dịch bất hợp pháp, nếu bị những kẻ xấu chiếm đoạt hoặc lợi dụng để đào tạo ra các mô hình lớn không giới hạn, sẽ có hậu quả không thể tưởng tượng nổi. Các hình thức lạm dụng tiềm ẩn của nó trong các tình huống mã hóa bao gồm:

  • Thực hiện lừa đảo chính xác: Thu thập thông tin của người dùng mã hóa và đội ngũ dự án, để sử dụng cho lừa đảo xã hội.
  • Bắt chước thủ đoạn phạm tội: Tái hiện các chiến lược trộm tiền và rửa tiền đã trưởng thành trong dark web.

FraudGPT: Dao găm của lừa đảo mạng

FraudGPT tuyên bố là phiên bản nâng cấp của WormGPT, với chức năng toàn diện hơn, chủ yếu được bán trên dark web và các diễn đàn hacker, phí hàng tháng từ 200 đô la đến 1.700 đô la. Cách lạm dụng điển hình của nó trong bối cảnh mã hóa bao gồm:

  • Dự án mã hóa giả mạo: Tạo ra các tài liệu trắng, trang web, lộ trình và nội dung tiếp thị giống như thật để thực hiện ICO/IDO giả.
  • Tạo trang lừa đảo hàng loạt: Tạo nhanh các trang đăng nhập hoặc giao diện kết nối ví giống như các sàn giao dịch mã hóa nổi tiếng.
  • Hoạt động của đội quân mạng xã hội: Tạo ra một lượng lớn bình luận và tuyên truyền giả mạo, thúc đẩy các mã thông báo lừa đảo hoặc bôi nhọ các dự án cạnh tranh.
  • Tấn công kỹ thuật xã hội: Chatbot này có thể bắt chước cuộc trò chuyện của con người, thiết lập lòng tin với người dùng không hay biết, dụ họ vô tình tiết lộ thông tin nhạy cảm hoặc thực hiện các hành động có hại.

GhostGPT:trợ lý AI không bị ràng buộc bởi đạo đức

GhostGPT là một chatbot AI được xác định rõ ràng là không có giới hạn về đạo đức, với các hình thức lạm dụng điển hình trong bối cảnh mã hóa bao gồm:

  • Tấn công lừa đảo nâng cao: Tạo ra các email lừa đảo có tính chân thực cao, giả mạo các sàn giao dịch lớn để phát hành các yêu cầu xác thực KYC giả, cảnh báo an ninh hoặc thông báo đóng băng tài khoản.
  • Tạo mã độc hại cho hợp đồng thông minh: không cần kiến thức lập trình, kẻ tấn công có thể nhanh chóng tạo ra hợp đồng thông minh chứa cửa hậu ẩn hoặc logic lừa đảo bằng GhostGPT, nhằm thực hiện các trò lừa đảo Rug Pull hoặc tấn công các giao thức DeFi.
  • Trình đánh cắp mã hóa đa hình: Tạo ra phần mềm độc hại có khả năng biến hình liên tục, dùng để đánh cắp tệp ví, khóa riêng và cụm từ khôi phục. Đặc tính đa hình của nó khiến phần mềm bảo mật dựa trên chữ ký truyền thống khó phát hiện.
  • Tấn công kỹ thuật xã hội: Kết hợp kịch bản lời nói được tạo ra bởi AI, kẻ tấn công có thể triển khai robot trên các nền tảng xã hội, dụ dỗ người dùng tham gia vào việc đúc NFT giả, airdrop hoặc các dự án đầu tư.
  • Lừa đảo giả mạo sâu: Kết hợp với các công cụ AI khác, GhostGPT có thể được sử dụng để tạo ra giọng nói của người sáng lập dự án mã hóa, nhà đầu tư hoặc giám đốc điều hành sàn giao dịch giả mạo, thực hiện lừa đảo qua điện thoại hoặc xâm nhập email thương mại (BEC).

Venice.ai:rủi ro tiềm ẩn của việc truy cập không bị kiểm duyệt

Venice.ai cung cấp quyền truy cập vào nhiều LLM, bao gồm một số mô hình có sự kiểm duyệt ít hơn hoặc hạn chế lỏng lẻo. Nó tự định vị mình là cổng mở cho người dùng khám phá khả năng của các LLM khác nhau, cung cấp các mô hình tiên tiến, chính xác nhất và chưa được kiểm duyệt, nhằm tạo ra trải nghiệm AI thực sự không giới hạn, nhưng cũng có thể bị kẻ xấu lợi dụng để tạo ra nội dung độc hại. Các rủi ro của nền tảng bao gồm:

  • Vượt qua kiểm duyệt để tạo nội dung độc hại: Kẻ tấn công có thể sử dụng các mô hình có hạn chế ít hơn trong nền tảng để tạo ra mẫu lừa đảo, quảng cáo giả hoặc ý tưởng tấn công.
  • Giảm bớt rào cản kỹ thuật của việc gợi ý: Ngay cả khi kẻ tấn công không có kỹ năng gợi ý "bẻ khóa" cao siêu, họ vẫn có thể dễ dàng nhận được đầu ra vốn bị hạn chế.
  • Tăng tốc độ lặp lại kịch bản tấn công: Kẻ tấn công có thể sử dụng nền tảng này để nhanh chóng kiểm tra phản ứng của các mô hình khác nhau đối với các lệnh độc hại, tối ưu hóa kịch bản gian lận và phương pháp tấn công.

Kết luận

Sự xuất hiện của LLM không giới hạn đánh dấu một mô hình tấn công mới phức tạp hơn, quy mô lớn hơn và có khả năng tự động hóa trong an ninh mạng. Những mô hình này không chỉ làm giảm ngưỡng tấn công mà còn mang đến những mối đe dọa mới kín đáo và lừa đảo hơn.

Trong cuộc chiến tranh giành này, các bên trong hệ sinh thái an toàn chỉ có thể hợp tác để đối phó với các rủi ro trong tương lai: Một mặt, cần tăng cường đầu tư vào công nghệ phát hiện, phát triển khả năng nhận diện và chặn các nội dung lừa đảo do LLM độc hại tạo ra, khai thác lỗ hổng hợp đồng thông minh và mã độc; Mặt khác, cũng nên thúc đẩy khả năng chống vượt ngục của mô hình, và khám phá cơ chế watermark và truy xuất nguồn gốc, nhằm theo dõi nguồn gốc nội dung độc hại trong các tình huống quan trọng như tài chính và tạo mã; Ngoài ra, còn cần thiết lập các quy tắc đạo đức và cơ chế quản lý hoàn thiện, từ gốc rễ hạn chế sự phát triển và lạm dụng mô hình độc hại.

Hộp Pandora: Mô hình lớn không giới hạn đang đe dọa an ninh ngành mã hóa như thế nào?

Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Phần thưởng
  • 5
  • Chia sẻ
Bình luận
0/400
ContractCollectorvip
· 10giờ trước
An toàn mới có thể phát triển bền vững
Xem bản gốcTrả lời0
GasFeeDodgervip
· 07-12 00:43
Công nghệ không có tội và không thể giải quyết.
Xem bản gốcTrả lời0
BankruptcyArtistvip
· 07-10 22:01
Chắc chắn là thuốc viên.
Xem bản gốcTrả lời0
SilentObservervip
· 07-10 21:50
Rủi ro không chỉ dừng lại ở đây
Xem bản gốcTrả lời0
just_another_walletvip
· 07-10 21:44
Cần thiết tuân thủ quy định quản lý
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)