🔥 UBND xã Kroong, thành Phố Kon Tum đã đăng ký tín nhiệm. 🔥                    🔥 Trường Tiểu học Vinh Quang đã đăng ký tín nhiệm. 🔥                    🔥 Trường Đại học Kinh tế Kỹ thuật - Công nghiệp đã đăng ký tín nhiệm. 🔥                    🔥 Sở Tư pháp tỉnh Lâm Đồng đã đăng ký tín nhiệm. 🔥                    🔥 Trang Thông tin về Phổ biến, giáo dục pháp luật tỉnh Lâm Đồng đã đăng ký tín nhiệm. 🔥                   

WormGPT, công cụ AI mới cho phép tin tặc thực hiện các cuộc tấn công mạng tinh vi

17/07/2023

Trí tuệ nhân tạo (AI) đang trở thành xu hướng thịnh hành ngày nay, vì vậy, không có gì ngạc nhiên khi công nghệ này đã bị các tác nhân đe dọa lạm dụng cho mục đích độc hại.

Theo phát hiện từ SlashNext, một công cụ tội phạm mạng AI mới có tên là WormGPT đã được quảng cáo trên các diễn đàn ngầm như một phương tiện giúp các tác nhân đe dọa tiến hành các cuộc tấn công xâm phạm email doanh nghiệp (BEC) và lừa đảo tinh vi.

Nhà nghiên cứu bảo mật Daniel Kelley cho biết: “Công cụ này được thiết kế đặc biệt cho các hoạt động độc hại”. "Tội phạm mạng có thể sử dụng nó để tự động tạo ra các email giả mạo có tính thuyết phục cao, được cá nhân hóa cho người nhận, do đó làm tăng cơ hội thành công cho cuộc tấn công". "AI có thể tạo email với nội dung có vẻ hợp pháp và giảm khả năng bị các hệ thống bảo mật đánh dấu là đáng ngờ".

Các công cụ như WormGPT có thể là một ‘vũ khí’ mạnh mẽ trong tay những kẻ xấu, đặc biệt là khi OpenAI ChatGPT và Google Bard đang ngày càng triển khai các biện pháp để ngăn cản việc lạm dụng các mô hình ngôn ngữ lớn (LLM) để tạo ra các email lừa đảo và các đoạn mã độc.

Đầu tháng 2 này, công ty bảo mật của Israel tiết lộ rằng tội phạm mạng đang tìm cách vượt qua các hạn chế của ChatGPT bằng cách lạm dụng API của nó, chưa kể đến việc buôn bán các tài khoản trả phí bị đánh cắp và bán các phần mềm brute-force để xâm nhập vào tài khoản ChatGPT.

Việc WormGPT hoạt động mà không có bất kỳ giới hạn đạo đức nào nhấn mạnh mối đe dọa chung do AI gây ra, thậm chí cho phép tội phạm mạng mới vào nghề thực hiện các cuộc tấn công nhanh chóng và quy mô mà không cần hiểu rõ về kỹ thuật để làm điều đó.

Vấn đề càng trở nên tồi tệ hơn khi các tác nhân đe dọa đang cố gắng tạo ra các đầu vào hoặc yêu cầu độc hại được thiết kế để thao túng công cụ nhằm tạo ra kết quả có thể liên quan đến việc tiết lộ thông tin nhạy cảm, tạo nội dung không phù hợp và thực thi mã độc hại.

Tiết lộ được đưa ra khi các nhà nghiên cứu từ Mithril Security thử nghiệm sửa đổi một mô hình AI nguồn mở được gọi là GPT-J-6B để làm cho nó phát tán thông tin sai lệch và tải nó lên một kho lưu trữ công khai như Hugging Face, sau đó nó có thể được tích hợp vào các ứng dụng khác, dẫn đến sự cố đầu độc chuỗi cung ứng LLM.

Thành công của kỹ thuật, được đặt tên là PoisonGPT, dựa trên điều kiện tiên quyết là công cụ được tải lên bằng cách sử dụng tên mạo danh của một công ty đã biết, trong trường hợp này đã mạo danh EleutherAI, công ty đứng sau GPT-J.

Nguồn: thehackernews.com.

scrolltop