AI cũng cần “lấy độc trị độc” | Khoa học

Rate this post

>> Mỹ “mạnh tay” trong cuộc đua công nghệ AI với Trung Quốc

Tin tặc đã tràn lan trên toàn cầu, không chỉ tấn công các doanh nghiệp lớn, mà còn cả hệ thống an ninh quốc gia. Việc nghiên cứu cách xử lý hacker đang là nhu cầu cấp thiết.

    Các hãng lớn bổ sung thêm Red Team (hacker mũ đỏ), là một dạng hacker mũ trắng nhưng chuyên về hệ thống trí tuệ nhân tạo (AI).

Các hãng lớn bổ sung thêm Red Team (hacker mũ đỏ), là một dạng hacker mũ trắng nhưng chuyên về hệ thống trí tuệ nhân tạo (AI).

Từ lâu, các hacker mũ đen đã tấn công vào hệ thống để lấy tiền, trong khi các hacker mũ trắng chuyên tìm các lỗ hổng bảo mật để che đậy. Giờ đây, các công ty lớn đã có thêm Red Team (hacker mũ đỏ), là một dạng hacker mũ trắng nhưng chuyên về hệ thống trí tuệ nhân tạo (AI).

Đội đỏ “xuất phát”

Vào một ngày tuyết rơi vào tháng Hai, Amanda Minnich được giao nhiệm vụ tấn công một hệ thống AI: với một đoạn mã duy nhất, cô cần phải xâm nhập vào một trong những chương trình máy học phức tạp nhất do một đối tác của Microsoft phát triển. vận hành.

Minnich đã thử nhiều cách, từ sử dụng một hình ảnh để đánh lừa hệ thống, sau đó sử dụng nhiều hình ảnh khác nhau, và cuối cùng là đánh lừa chương trình bằng một chuỗi hình ảnh lặp lại – một thủ thuật mà cô ấy mô tả nó giống như trong bộ phim hành động Ocean’s Eleven khi những tên trộm thay thế bản phát trực tiếp nội dung camera an ninh có ghi lại cảnh quay cũ để lừa nhân viên bảo vệ.

Thủ thuật lặp thành công, Minnich bước vào và nắm quyền kiểm soát toàn bộ chương trình, còn Microsoft thì… chúc mừng cô đã hoàn thành nhiệm vụ.

>> Ngành bán lẻ sẽ chi mạnh cho công nghệ AI

    Thụy Sĩ treo thưởng 150.000 đô la cho bất kỳ ai phát hiện ra lỗ hổng trong hệ thống bỏ phiếu trực tuyến của nước này.

Thụy Sĩ treo thưởng 150.000 đô la cho bất kỳ ai phát hiện ra lỗ hổng trong hệ thống bỏ phiếu trực tuyến của nước này.

Là thành viên của Nhóm AI Đỏ của Microsoft, thâm nhập vào các hệ thống AI là một phần công việc của cô để kiểm tra tính ổn định của hệ thống và các yếu tố liên quan như mô hình, dữ liệu đào tạo, cũng như phần mềm để chạy mô hình.

Red Team là một nhóm các chuyên gia bảo mật làm việc và suy nghĩ như một tin tặc để vượt qua các kiểm soát an ninh mạng, sử dụng tất cả các loại kỹ thuật tấn công để tìm ra điểm yếu của con người, quy trình và công nghệ để thực hiện cuộc tấn công mô phỏng và sau khi thực hiện cuộc tấn công mô phỏng, các đề xuất và kế hoạch tăng cường bảo mật được thực hiện.

Nhu cầu đang tăng lên từng ngày

Thuật ngữ “Red Team” bắt nguồn từ những năm 1960 với mô phỏng của Bộ Quốc phòng Hoa Kỳ và hiện nay được áp dụng rộng rãi trong lĩnh vực an ninh mạng. Cùng với sự phát triển của AI, kể từ năm 2019, các gã khổng lồ công nghệ như Microsoft, Google và Meta đã thành lập Red Teams của riêng mình để tận dụng vai trò kiểm tra và phát hiện các khiếm khuyết, thành kiến ​​và lỗi. bảo mật của các chương trình học máy của họ.

Động thái này là một phần của quá trình thiết lập đạo đức và quy tắc quản lý AI, vốn là chủ đề thảo luận giữa các hội đồng quản trị công ty và Quốc hội Hoa Kỳ. Theo Gartner, “các hệ thống AI thông minh hơn, nhanh nhẹn hơn và có trách nhiệm hơn” đang dẫn đầu trong phân tích dữ liệu vào năm 2021 và có vẻ như toàn bộ ngành công nghệ đang làm mọi thứ để chứng minh điều đó. cái đó.

Năm ngoái, Twitter đã mở một cuộc thi tìm kiếm sự thiên vị trong hệ thống AI của mình để mọi người tham gia, bao gồm cả người tổ chức và tiền thưởng. Và Google cam kết tăng gấp đôi lực lượng lao động và rót thêm vốn vào nghiên cứu đạo đức AI …

Tìm kiếm các lỗ hổng bảo mật

Các tập đoàn định hướng hoạt động của Đội Đỏ theo nhiều cách khác nhau. Tại Google, Red Team sẽ đánh giá sự tương tác với người dùng của sản phẩm, người dùng mục tiêu và khách truy cập cũng như các vấn đề về vốn chủ sở hữu. Sau đó, họ nghĩ ra một phương pháp để kiểm tra độ ổn định của sản phẩm trước các yếu tố nhạy cảm như tôn giáo, giới tính và xu hướng tình dục của người dùng. Sau đó là thu thập và kiểm tra dữ liệu thâm nhập, nơi các thành viên trong nhóm làm việc và tương tác với nhau về các phương pháp tiếp cận, vấn đề và giải pháp. Bước cuối cùng là đánh giá kết quả nhận được và thảo luận với bộ phận thuyết trình về cách giảm thiểu rủi ro có thể xảy ra.

Tại Microsoft, Red Team được điều hành bởi Red Team Management. Đội đỏ có nhiệm vụ đánh giá rủi ro AI từ nhiều góc độ: một thành viên gồm các chuyên gia bảo mật sẽ phát hiện các lỗ hổng, trong khi một chuyên gia xâm nhập sẽ xem xét mức độ lộ thông tin riêng tư, khả năng bị đánh cắp. nền tảng học máy và khả năng tái tạo dữ liệu đào tạo cụ thể cho các hoạt động của AI. Từ đó, các nhà phát triển phần mềm và kỹ sư CNTT sẽ xây dựng một bộ công cụ để giúp Microsoft chống lại các cuộc tấn công và lỗ hổng bảo mật phổ biến.

Đối với hai tập đoàn công nghệ trên, thời gian để Đội đỏ thực hiện đánh giá từng phần kéo dài từ 1,5 – 3 tháng, và cả hai tập đoàn đều giữ nguyên số lượng dự án cũng như tiêu chí chuyển giao dự án cho Đội đỏ “tấn công”.

Tuy nhiên, vai trò của Red Team đối với sự phát triển của AI trong tương lai gần sẽ vẫn rất cần thiết và ngày càng được nâng cao, với mục đích cuối cùng là tạo ra các sản phẩm đáp ứng nhu cầu của người dùng mà không gây ra các vấn đề bảo mật đáng tiếc.

Đánh giá của bạn:

Thanh Thuy

Leave a Reply

Your email address will not be published. Required fields are marked *