Đương đầu với các mối đe dọa trên mạng và củng cố khả năng phòng thủ trong kỷ nguyên AI
Ngày nay, thế giới an ninh mạng đang trải qua biến chuyển lớn. Trí tuệ nhân tạo (AI) đang tiên phong trong quá trình thay đổi này, đặt ra cả mối đe dọa và cơ hội. Mặc dù AI có khả năng hỗ trợ các tổ chức đánh bại các cuộc tấn công mạng ở tốc độ của máy, đồng thời thúc đẩy sự đổi mới và hiệu quả trong việc phát hiện mối đe dọa, tìm kiếm và ứng phó sự cố, nhưng kẻ tấn công có thể lợi dụng AI để khai thác. Việc thiết kế, triển khai và sử dụng AI một cách an toàn chưa bao giờ quan trọng hơn thế.
Tại Microsoft, chúng tôi đang khám phá tiềm năng của AI để nâng cao các biện pháp bảo mật, khai phá các biện pháp bảo vệ mới và nâng cao cũng như xây dựng phần mềm tốt hơn. Nhờ AI, chúng ta có khả năng thích ứng với các mối đe dọa ngày càng gia tăng, ngay lập tức phát hiện sự bất thường, ứng phó nhanh chóng để vô hiệu hóa rủi ro và điều chỉnh biện pháp phòng vệ cho phù hợp với nhu cầu của tổ chức.
AI cũng có thể giúp chúng tôi vượt qua một trong những thách thức lớn nhất trong ngành. Trước tình trạng thiếu hụt lực lượng lao động an ninh mạng toàn cầu, trong đó cần khoảng 4 triệu chuyên gia an ninh mạng trên toàn thế giới, AI có tiềm năng trở thành một công cụ quan trọng để thu hẹp khoảng trống năng lực và giúp phòng vệ hiệu quả hơn.
Một nghiên cứu về mức độ hỗ trợ của Copilot for Security đối với các nhà phân tích bảo mật không phân biệt trình độ chuyên môn - trong tất cả các nhiệm vụ - cho thấy mức độ chính xác tăng 44% và tốc độ nhanh hơn 26%.
Trong tương lai, chúng ta phải đảm bảo cân bằng giữa đảm bảo an toàn cho AI và tận dụng lợi ích của AI, bởi vì AI có khả năng nâng cao tiềm năng của con người và hỗ trợ giải quyết một số thách thức nghiêm trọng nhất.
Một tương lai an toàn hơn với AI sẽ đòi hỏi những tiến bộ cơ bản trong công nghệ phần mềm. AI sẽ đòi hỏi chúng ta phải am hiểu và chống lại các mối đe dọa dựa trên AI, đó là những cấu phần thiết yếu của bất kỳ chiến lược bảo mật nào. Đồng thời chúng ta phải phối hợp với nhau để xây dựng cơ chế cộng tác và hợp tác sâu sắc giữa các khu vực công và tư nhân nhằm chống lại những tác nhân xấu.
Với nỗ lực đó và Sáng kiến tương lai an toàn của Microsoft, OpenAI và Microsoft hiện đang phát hành thông tin mới, trong đó nêu chi tiết các tác nhân đe dọa đang cố gắng thử nghiệm và khám phá các kỹ thuật tấn công thông qua các mô hình ngôn ngữ lớn (LLM).
Chúng tôi hy vọng thông tin này sẽ hữu ích trong các ngành vì tất cả chúng ta đều hướng tới một tương lai an toàn hơn. Bởi vì suy cho cùng, tất cả chúng ta đều là những người phòng vệ.
Phó Chủ tịch Tập đoàn, Giám đốc Bảo mật Thông tin
Hãy xem bản tóm tắt số Cyber Signals trong đó Vasu Jakkal, Phó Chủ tịch Tập đoàn, Phụ trách Bảo mật thông tin Microsoft, phỏng vấn các chuyên gia về các mối đe dọa mạng trong thời đại AI, cách Microsoft đang sử dụng AI để tăng cường bảo mật và những gì tổ chức có thể làm để giúp tăng cường khả năng phòng thủ.
Kẻ tấn công đang khám phá công nghệ AI
Bối cảnh mối đe dọa mạng ngày càng trở nên thách thức do những kẻ tấn công ngày càng có động cơ hơn, tinh vi hơn và có nguồn lực tốt hơn. Những tác nhân đe dọa cũng như những người bảo vệ đều đang tìm đến AI, bao gồm cả LLM, để nâng cao năng suất và tận dụng các nền tảng có thể truy cập có thể phù hợp với mục tiêu và kỹ thuật tấn công của mình.
Trong bối cảnh mối đe dọa ngày càng phát triển nhanh chóng, hiện nay chúng tôi đang công bố các nguyên tắc hướng dẫn hành động của Microsoft nhằm giảm thiểu rủi ro từ các tác nhân đe dọa, bao gồm các mối đe dọa tấn công có chủ đích (APT), kẻ thao túng có chủ đích (APM) và các tổ chức tội phạm mạng, sử dụng nền tảng AI và API. Những nguyên tắc này bao gồm nhận diện và hành động chống lại việc sử dụng AI của tác nhân đe dọa độc hại, thông báo cho các nhà cung cấp dịch vụ AI khác, cộng tác với các bên liên quan khác và tính minh bạch.
Mặc dù động cơ và mức độ phức tạp của các tác nhân đe dọa khác nhau nhưng chúng có chung nhiệm vụ khi triển khai tấn công. Các nhiệm vụ này bao gồm do thám, chẳng hạn như nghiên cứu các ngành, địa điểm và mối quan hệ của nạn nhân tiềm năng; mã hóa, bao gồm cải thiện tập lệnh phần mềm và phát triển phần mềm độc hại; và hỗ trợ việc học và sử dụng cả ngôn ngữ của con người và máy móc.
Cùng với OpenAI, chúng tôi chia sẻ thông tin về mối đe dọa cho thấy các đối thủ liên kết cấp quốc gia đã được phát hiện - được theo dõi là Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon và Salmon Typhoon - sử dụng LLM để tăng cường các hoạt động trên mạng.
Mục tiêu hợp tác nghiên cứu của Microsoft với OpenAI là nhằm đảm bảo sử dụng an toàn và có trách nhiệm các công nghệ AI như ChatGPT, duy trì các tiêu chuẩn cao nhất về ứng dụng có đạo đức để bảo vệ cộng đồng khỏi nguy cơ bị lạm dụng.
Emerald Sleet sử dụng LLM để tìm hiểu các tổ chức và chuyên gia nghiên cứu về Triều Tiên, cũng như tạo nội dung có thể được sử dụng trong các chiến dịch lừa đảo trực tuyến. Emerald Sleet cũng tương tác với LLM để tìm hiểu các lỗ hổng đã được biết đến rộng rãi, khắc phục sự cố kỹ thuật và để được hỗ trợ sử dụng các công nghệ web khác nhau.
Một nhóm khác được Trung Quốc hậu thuẫn là Salmon Typhoon, đã đánh giá tính hiệu quả của việc sử dụng LLM trong suốt năm 2023 để lấy thông tin về các chủ đề nhạy cảm tiềm ẩn, các nhân vật cấp cao, địa chính trị khu vực, ảnh hưởng của Hoa Kỳ và các vấn đề nội bộ. Việc dự định sử dụng LLM có thể cho thấy cả hoạt động mở rộng bộ công cụ thu thập thông tin và giai đoạn thử nghiệm đánh giá khả năng của các công nghệ mới nổi.
Chúng tôi đã thực hiện các biện pháp để phá vỡ các tài sản và tài khoản có liên quan đến những tác nhân đe dọa này, đồng thời định hình các biện pháp bảo vệ và cơ chế an toàn xung quanh các mô hình của chúng tôi.
Gian lận có sự hỗ trợ của AI là một mối quan ngại nghiêm trọng khác. Tổng hợp giọng nói là một ví dụ, trong đó mẫu giọng nói dài ba giây có thể huấn luyện một mô hình phát ra âm thanh giống bất kỳ ai. Ngay cả những điều vô hại như lời chào thư thoại của bạn cũng có thể được sử dụng để lấy mẫu đầy đủ.
Phần lớn cách chúng ta tương tác với nhau và thực hiện hoạt động kinh doanh đều dựa vào xác minh danh tính, chẳng hạn như nhận dạng giọng nói, khuôn mặt, địa chỉ email hoặc phong cách viết của một người.
Điều quan trọng là chúng ta phải hiểu cách các tác nhân độc hại sử dụng AI để phá hoại các hệ thống xác minh danh tính lâu đời, nhờ đó chúng ta có thể giải quyết các trường hợp gian lận phức tạp và các mối đe dọa lừa đảo phi kỹ thuật mới nổi khác che giấu danh tính.
AI cũng có thể được sử dụng để giúp các công ty ngăn chặn các hoạt động gian lận. Mặc dù Microsoft đã ngừng hợp tác với một công ty ở Brazil nhưng hệ thống AI của chúng tôi đã phát hiện ra những nỗ lực của công ty này nhằm tự khôi phục để tái gia nhập hệ sinh thái của chúng tôi.
Nhóm liên tục cố gắng làm xáo trộn thông tin của mình, che giấu nguồn gốc quyền sở hữu và tái gia nhập, nhưng các phát hiện AI của chúng tôi đã sử dụng gần chục tín hiệu rủi ro để gắn cờ công ty lừa đảo và gán với hành vi đáng ngờ đã xác định trước đó, từ đó ngăn chặn các nỗ lực của công ty đó.
Microsoft cam kết cung cấp AI do con người làm chủ có trách nhiệm, có tính năng kiểm soát quyền riêng tư và bảo mật, trong đó con người giám sát, đánh giá kháng nghị cũng như diễn giải các chính sách và quy định.
- Sử dụng chính sách truy cập có điều kiện: Các chính sách này đưa ra hướng dẫn rõ ràng, tự triển khai để tăng cường vị thế bảo mật nhằm tự động bảo vệ đối tượng thuê dựa trên các tín hiệu rủi ro, cấp phép và mức sử dụng. Chính sách truy nhập có điều kiện có thể tùy chỉnh và sẽ thích ứng với bối cảnh mối đe dọa mạng đang thay đổi.
- Đào tạo và tái đào tạo nhân viên về các chiến thuật lừa đảo phi kỹ thuật: Hướng dẫn nhân viên và công chúng cách nhận biết và phản ứng với các email lừa đảo, lừa đảo qua điện thoại (thư thoại), lừa đảo qua tin nhắn, các cuộc tấn công lừa đảo phi kỹ thuật (SMS/văn bản) và áp dụng các thông lệ bảo mật tốt nhất cho Microsoft Teams.
- Bảo vệ dữ liệu một cách nghiêm ngặt: Đảm bảo dữ liệu luôn ở chế độ riêng tư và được kiểm soát từ đầu đến cuối.
- Tận dụng các công cụ bảo mật AI tạo sinh: Các công cụ như Microsoft Copilot for Security có thể mở rộng khả năng và nâng cao vị thế bảo mật của tổ chức.
- Bật xác thực đa yếu tố: Bật xác thực đa yếu tố cho tất cả người dùng, đặc biệt đối với các chức năng của quản trị viên, vì nó giúp giảm hơn 99% nguy cơ chiếm đoạt tài khoản.
Bảo vệ chống lại các cuộc tấn công
Microsoft phát hiện một lượng lớn lưu lượng truy cập độc hại -hơn 65 nghìn tỷ tín hiệu an ninh mạng mỗi ngày. AI đang nâng cao khả năng phân tích thông tin này và đảm bảo rằng những thông tin chuyên sâu giá trị nhất sẽ được hiển thị để giúp ngăn chặn các mối đe dọa. Chúng tôi cũng sử dụng thông tin tín hiệu này để hỗ trợ AI tạo sinh phục vụ chống mối đe dọa nâng cao, bảo mật dữ liệu và bảo mật danh tính nhằm giúp những người bảo vệ phát hiện những điều người khác bỏ qua.
Microsoft sử dụng một số phương pháp để bảo vệ chính mình và khách hàng khỏi các mối đe dọa trên mạng, bao gồm tính năng phát hiện mối đe dọa có sự hỗ trợ của AI để phát hiện những thay đổi trong cách sử dụng tài nguyên hoặc lưu lượng truy cập trên mạng; phân tích hành vi để phát hiện các lần đăng nhập rủi ro và hành vi bất thường; mô hình học máy (ML) để phát hiện các lần đăng nhập rủi ro và phần mềm độc hại; mô hình Zero Trust trong đó mọi yêu cầu truy cập phải được xác thực, ủy quyền và mã hóa đầy đủ; và xác minh tình trạng thiết bị trước khi thiết bị có thể kết nối với mạng công ty.
Bởi vì các tác nhân đe dọa hiểu rằng Microsoft sử dụng xác thực đa yếu tố (MFA) một cách nghiêm ngặt để tự bảo vệ mình -tất cả nhân viên của chúng tôi đều được thiết lập MFA hoặc bảo vệ không cần mật khẩu - chúng tôi đã thấy những kẻ tấn công sử dụng lừa đảo phi kỹ thuật nhằm cố gắng xâm phạm nhân viên của chúng tôi.
Điểm nóng của vấn đề này bao gồm các lĩnh vực truyền tải giá trị, chẳng hạn như bản dùng thử miễn phí hoặc khuyến mại giá dịch vụ hoặc sản phẩm. Ở những lĩnh vực này, kẻ tấn công đánh cắp từng gói đăng ký một lần sẽ không mang lại lợi nhuận, vì vậy chúng cố gắng vận hành và mở rộng quy mô các cuộc tấn công đó mà không bị phát hiện.
Đương nhiên, chúng tôi xây dựng các mô hình AI để phát hiện các cuộc tấn công này cho Microsoft và khách hàng của Microsoft. Chúng tôi phát hiện các sinh viên và tài khoản trường học giả mạo, các công ty hoặc tổ chức giả mạo đã thay đổi dữ liệu theo đặc điểm doanh nghiệp hoặc che giấu danh tính thực sự để trốn tránh các biện pháp trừng phạt, né tránh kiểm soát hoặc che giấu các vi phạm hình sự trong quá khứ như tội tham nhũng, trộm cắp, v.v.
Việc sử dụng GitHub Copilot, Microsoft Copilot for Security và các tính năng trò chuyện của copilot được tích hợp vào cơ sở hạ tầng vận hành và kỹ thuật nội bộ của chúng tôi giúp ngăn ngừa các sự cố có thể ảnh hưởng đến hoạt động.
Để giải quyết các mối đe dọa từ email, Microsoft đang cải thiện khả năng thu thập các tín hiệu bên cạnh thành phần của email để tìm hiểu xem email đó có độc hại hay không. Khi tác nhân đe dọa nắm trong tay AI, đã có rất nhiều email được viết hoàn hảo nhằm cải thiện ngôn ngữ rõ ràng và các lỗi ngữ pháp thường cho thấy các nỗ lực lừa đảo qua mạng, khiến các nỗ lực lừa đảo qua mạng khó bị phát hiện hơn.
Cần tiếp tục đào tạo nhân viên và thực hiện các chiến dịch nâng cao nhận thức cộng đồng để giúp chống lại lừa đảo phi kỹ thuật, vốn phụ thuộc 100% vào lỗi của con người. Lịch sử cho thấy các chiến dịch nâng cao nhận thức cộng đồng hiệu quả có tác dụng thay đổi hành vi.
Microsoft dự đoán rằng AI sẽ phát triển các chiến thuật lừa đảo phi kỹ thuật, tạo ra các cuộc tấn công tinh vi hơn bao gồm cả deepfake và nhân bản giọng nói, đặc biệt nếu những kẻ tấn công nhận thấy công nghệ AI hoạt động mà không có các biện pháp sử dụng có trách nhiệm và các biện pháp kiểm soát bảo mật tích hợp sẵn.
Phòng ngừa là chìa khóa để chống lại tất cả các mối đe dọa trên mạng, dù là truyền thống hay có sự hỗ trợ của AI.
Đề xuất:
Nhận thêm thông tin chuyên sâu về AI từ Homa Hayatafar, Quản lý dữ liệu và khoa học ứng dụng, Quản lý phân tích phát hiện.
Các công cụ truyền thống không còn theo kịp các mối đe dọa do tội phạm mạng gây ra. Tốc độ, quy mô và mức độ phức tạp ngày càng tăng của các cuộc tấn công mạng gần đây đòi hỏi cần có phương pháp tiếp cận mới về bảo mật. Ngoài ra, do sự thiếu hụt lực lượng lao động an ninh mạng và các mối đe dọa mạng ngày càng gia tăng về tần suất và mức độ nghiêm trọng, việc thu hẹp khoảng trống kỹ năng này là một nhu cầu cấp thiết.
AI có thể quyết định cách giải quyết vấn đề cho đội ngũ phòng vệ. Một nghiên cứu gần đây của Microsoft Copilot for Security (hiện đang trong giai đoạn thử nghiệm) cho thấy tốc độ và độ chính xác của nhà phân tích bảo mật đã tăng lên, không phân biệt trình độ chuyên môn, trong các tác vụ phổ biến như xác định tập lệnh mà kẻ tấn công sử dụng, tạo báo cáo sự cố và xác định các bước khắc phục thích hợp.1
- [1]
Phương pháp:1 Dữ liệu báo cáo hiện trạng thể hiện một thử nghiệm ngẫu nhiên có kiểm soát (RCT), trong đó chúng tôi đã thử nghiệm 149 người để đo lường tác động năng suất từ việc sử dụng Microsoft Copilot for Security. Trong RCT này, chúng tôi ngẫu nhiên cung cấp Copilot cho một số nhà phân tích và không cung cấp cho một nhóm khác, sau đó trừ đi hiệu suất và cảm tính của họ để có được hiệu ứng của Copilot, tách biệt với mọi hiệu ứng cơ bản. Đối tượng thử nghiệm có kỹ năng CNTT cơ bản nhưng lại là người mới làm quen về bảo mật, vì vậy chúng tôi có thể kiểm tra mức độ hỗ trợ của Copilot đối với các nhà phân tích “mới vào nghề”. Thử nghiệm RCT Microsoft Copilot for Security đã được thực hiện bởi Văn phòng Chuyên gia Kinh tế Hàng đầu của Microsoft vào tháng 11 năm 2023. Ngoài ra, Microsoft Entra ID đã cung cấp dữ liệu ẩn danh về hoạt động của mối đe dọa như tài khoản email độc hại, email lừa đảo qua mạng và chuyển động của kẻ tấn công trong mạng. Các thông tin chuyên sâu bổ sung đến từ 65 nghìn tỷ tín hiệu bảo mật hàng ngày thu thập được trên Microsoft, bao gồm nền tảng điện toán đám mây, điểm cuối, biên dữ liệu thông minh, Nhóm Thực hành Khôi phục Bảo mật sau Sự cố Xâm phạm và Nhóm Phát hiện và Ứng phó, dữ liệu đo từ xa từ các nền tảng và dịch vụ của Microsoft bao gồm Microsoft Defender và Báo cáo Phòng vệ số Microsoft năm 2023.