Trí tuệ nhân tạo được ứng dụng như thế nào trong phòng, chống tội phạm?

Rate this post

Trong buổi bình minh của trí tuệ nhân tạo (AI), hàng loạt công cụ học máy mới hứa hẹn sẽ giúp bảo vệ con người hiệu quả hơn, nhưng cũng đi kèm với những thách thức khó giải quyết trong một sớm một chiều.

Khi chính dữ liệu cũ là vấn đề

Dữ liệu tội phạm trong quá khứ có thể được sử dụng để thông báo cho các thuật toán máy học dự đoán tội phạm trong tương lai, do đó, cảnh sát có thể phân bổ nguồn lực cho phù hợp. đây. Tuy nhiên, bản thân dữ liệu này có vấn đề, vì nó chứa nhiều sai lệch và do đó làm sâu sắc thêm sự bất bình đẳng.

Từ những năm 1990, các sở cảnh sát ở Mỹ đã áp dụng phân tích dữ liệu để phân bổ nguồn lực cho các khu vực “có nguy cơ cao”. Tuy nhiên, thực tế cho thấy, nếu nhiều cảnh sát được triển khai đến một khu vực nhất định, thì khả năng tội phạm sẽ xuất hiện nhiều hơn ở đó. Về cơ bản, nó là một vòng lặp phản hồi tạo ra một cái nhìn sai lệch về nơi mà rất nhiều tội phạm thực sự đang diễn ra.

Không chỉ vậy, việc sử dụng dữ liệu lịch sử, mặc dù những dữ liệu này có thể cung cấp một số chỉ báo về hành vi trong tương lai, không tính đến khái niệm và khả năng khôi phục sau đó.

Trí tuệ nhân tạo được ứng dụng như thế nào trong phòng, chống tội phạm?

Vào năm 2019, chính phủ Hà Lan đã thí điểm hệ thống SyRI (hệ thống cảnh báo rủi ro), sử dụng dữ liệu có sẵn như thuế, bảo hiểm, cư trú, giáo dục, v.v. để dự đoán những kẻ gian lận tiềm năng. gian lận phúc lợi xã hội. Tuy nhiên, dự án này đã bị đình chỉ sau 1 năm, do bị nhiều chỉ trích vì sử dụng các thông số và dữ liệu đặc biệt nhắm vào người có thu nhập thấp và người dân tộc thiểu số.

Tương tự, Roermond, một thành phố ở Đông Nam Hà Lan, đang thử nghiệm dự án “Cảm biến”, sử dụng camera và cảm biến để thu thập dữ liệu về các phương tiện di chuyển quanh khu vực, sau đó sử dụng thuật toán để xác định các đối tượng có thể nhận dạng được. Khả năng cao là móc túi, trộm cắp để báo công an và cảnh báo cho mọi người. Tuy nhiên, dự án không cho thấy hiệu quả, thường bỏ qua các cá nhân bản địa, thay vào đó chủ yếu nhắm vào người Đông Âu, những người mà cảnh sát Hà Lan cho biết chiếm phần lớn các vụ trộm. và móc túi ở đất nước này.

Marc Schuilenburg, giáo sư tội phạm học tại Đại học Vrije Amsterdam, lập luận: “Những dự báo này không chỉ phản ánh sự bất bình đẳng đang diễn ra mà còn làm trầm trọng thêm nó.

Chủ nghĩa hoài nghi về độ chính xác của hệ thống AI

Năm 2018, sở cảnh sát London đã sử dụng công nghệ nhận dạng khuôn mặt để xác định 104 người được cho là đã phạm tội. Tuy nhiên, chỉ có 2 trong số 104 trường hợp là đúng.

“Từ thời điểm cảnh sát xác định nhầm nghi phạm cho đến khi họ nhận ra mình đã bắt nhầm người, hành động cưỡng chế đã diễn ra: nghi phạm bị bắt, đưa về đồn và bị tạm giam. Loạt hành động này gây ra nỗi sợ hãi và hậu quả không thể thay đổi ”, Edward Santow, phóng viên của The Australian Quarterly cho biết.

Ngoài ra, hệ thống nhận dạng khuôn mặt cũng cho thấy sự phân biệt đối xử với người da màu. Ví dụ, thuật toán của Facebook từng gắn mác người da đen là “động vật linh trưởng”, một sai lầm không thể chấp nhận được.

Công nghệ nhận dạng khuôn mặt vẫn đang phát triển, các thuật toán ngày càng hiệu quả trong việc phân tích hình ảnh chất lượng thấp và xác định khuôn mặt già nua, thậm chí nhận dạng từ góc nghiêng. Tuy nhiên, Patrick Grother, một chuyên gia của Image Group, cho biết “sai số vẫn chỉ là tương đối” và “chất lượng hình ảnh là một vấn đề”. Trong phần lớn các thí nghiệm sử dụng hình ảnh chất lượng cao, thuật toán tốt nhất vẫn sai tới 20%.

Thiếu sự giám sát của con người đối với các quy trình tự động

Khi các hệ thống AI ngày càng dựa nhiều hơn vào học sâu, chúng trở nên tự chủ và khó nắm bắt hơn. Việc tạo ra các “hộp đen” nơi người dùng chỉ biết kết quả thay vì quy trình tạo ra các kết quả đó, có thể gây khó khăn trong việc xác định trách nhiệm cụ thể khi để xảy ra sai phạm.

Điều này tạo ra “khoảng trống trách nhiệm giải trình” khi “cả cơ quan và nhân viên của nó không biết hoặc không trực tiếp tham gia vào các quyết định cụ thể gây hậu quả nghiêm trọng”, theo Kate Crawford và Jason Schultz, Tác giả của báo cáo “Hệ thống AI và các yếu tố trạng thái” .

Những công cụ này có thể được xây dựng từ nhiều nguồn khác nhau, từ trong các cơ quan chính phủ, do các nhà thầu phát triển hoặc thậm chí được tài trợ. Và khi hệ thống gặp sự cố, sẽ rất khó để xác định ai là người chịu trách nhiệm chính.

Một nghiên cứu của Đại học Columbia, Viện AI Now, Đại học New York, và Electronic Frontier về việc sử dụng AI trong thực thi pháp luật ở Mỹ cho thấy: “Các hệ thống AI được triển khai mà không có sự giám sát, hỗ trợ và bảo vệ cụ thể cho những người được đánh giá”.

Không thể phủ nhận công nghệ AI đang len lỏi vào mọi ngóc ngách trong cuộc sống của con người, nhưng trong các lĩnh vực thực thi pháp luật, nơi số phận của một cá nhân cụ thể đang được mổ xẻ, dữ liệu chỉ đúng trong quá khứ và được con người thiên vị nhiều, được sử dụng bởi một Hệ thống AI có thể gây ra những hậu quả nghiêm trọng không thể sửa chữa.

Vinh Ngo

Tranh AI đoạt giải nhất: Đâu là ranh giới của nghệ thuật?

Tranh AI đoạt giải nhất: Đâu là ranh giới của nghệ thuật?

Cộng đồng phẫn nộ khi nghệ sĩ này sử dụng trí tuệ nhân tạo để bốc thăm giải thưởng. Làm thế nào để hiểu đúng về “nghệ thuật” bây giờ?

Thanh Thuy

Leave a Reply

Your email address will not be published. Required fields are marked *