
Apple giải thích cách phát hiện ảnh lạm dụng trẻ em trên máy của người dùng
- Người viết: Tâm anh lúc
- Tin tức
Apple sẽ bắt đầu quét iPhone để phát hiện những tấm ảnh mang tính chất lạm dụng trẻ em thông qua một bản update của iOS 15, iPadOS 15, watchOS 8, macOS Monterey. Apple cũng sẽ triển khai một phần mềm có thể quét hình ảnh gửi trong app Messages và gửi cảnh báo cho trẻ em và cha mẹ khi nhận hoặc gửi ảnh đồi trụy".
Cách hoạt động của hệ thống phát hiện ảnh lạm dụng trẻ em trên iPhone
Trước khi 1 ảnh được chứa lên iCloud Photos, một quá trình đối chiếu sẽ diễn trên thiết bị, nhằm so sánh tấm ảnh với một cơ sở dữ liệu ảnh trẻ em bị lạm dụng. Cơ sở dữ liệu này được cung cấp bởi Trung tâm hỗ trợ trẻ em bị mất tích và lạm dụng (NCMEC) và nhiều tổ chức bảo vệ quyền trẻ em khác. Apple biến các ảnh trong cơ sở dữ liệu này thành những chuỗi hash được lưu an toàn trên thiết bị của người dùng, chứ không phải lưu ảnh trực tiếp.
Sau khi so khớp xong, một “voucher” được sinh ra và nó được đính kèm chung với tấm ảnh khi upload lên iCloud Photos. Sử dụng một số thuật toán mà Apple gọi là PSI Matching, hệ thống “đảm bảo rằng nội dung của voucher không thể được đọc bởi Apple trừ khi tài khoản iCloud Photos vượt qua một ngưỡng phát hiện ảnh lạm dụng nhất định”. Chỉ khi vượt ngưỡng, hệ thống mới cho phép Apple xem nội dung của voucher kèm với tấm ảnh vi phạm.
Ngưỡng trên được chọn ở mức khiến cho việc phát hiện nhầm là cực kì khó (tỉ lệ 1 trên 1 nghìn tỉ). Điều này càng giúp giảm việc đánh giá thủ công của Apple khi có một tấm ảnh được báo cáo là khớp với cơ sở dữ liệu ảnh lạm dụng. Lúc đó, Apple sẽ vô hiệu hóa tài khoản của người dùng, và gửi báo cáo về cho NCMEC. Nếu người dùng cảm thấy họ bị đánh nhầm, họ có thể kháng cáo và khôi phục tài khoản nếu đúng.
Kĩ thuật Apple dùng để đối chiếu ảnh lạm dụng trẻ em
Nói ngắn gọn, mỗi tấm ảnh bạn chụp sẽ được hệ điều hành đưa vào một giải thuật dùng mạng nơ-ron nhân tạo (CNN cho anh em nào quan tâm) để “băm” thành một chuỗi số rất dài. Sau đó, chuỗi số này tiếp tục được chuyển đổi thành một chuỗi khác ngắn hơn, Apple gọi là NeuralHash. NeuralHash có kích thước nhỏ hơn so với chuỗi số ban đầu nhưng vẫn chứa đủ thông tin về bức ảnh để có thể đối chiếu với cơ sở dữ liệu ảnh lạm dụng trẻ em mà iPhone, iPad, Mac đang lưu trữ. Việc giảm kích thước này cũng giảm dung lượng cần thiết để lưu trữ. Công đoạn hash nói trên được thực hiện hoàn toàn trên iPhone, iPad, macOS, không gửi ảnh về server Apple.
Chi tiết hơn về cách Apple huấn luyện mạng CNN này anh em có thể xem trong whitepaper chi tiết của hãng.
Về cơ sở dữ liệu để đối chiếu, Apple nhận các chuỗi NeuralHash bằng thuật toán tương tự, nhưng thay vì chạy trên ảnh chụp của iPhone, iPad thì các cơ quan bảo vệ trẻ em sẽ chạy nó trên các ảnh lạm dụng mà họ có được. Sau đó Apple đưa qua một số hình thức chuyển đổi dữ liệu, trong đó có đoạn mã hóa bằng “thuật toán elliptic curve” và chìa khóa để thực hiện việc này chỉ xuất hiện trên server của Apple, ngoài ra không ai khác biết được. Mục đích là để tiếp tục che thông tin của cơ sở dữ liệu này thêm một bước nữa trước khi lưu vào máy của người dùng, đảm bảo rằng không có thiết bị nào khác có thể truy ngược lại chuỗi hash trong mớ hình ảnh lạm dụng trẻ em.
Apple nói rằng kĩ thuật NeuralHash này cho ra kết quả giống nhau dù dung lượng ảnh có thể khác nhau, chất lượng nén file khác nhau, thì chuỗi NeuralHash sinh ra vẫn giống nhau.
Quy trình trên đảm bảo rằng:
- Apple không biết gì về các tấm ảnh không khớp với ảnh CSAM trong cơ sở dữ liệu
- Apple không thể truy cập về các thông tin cũng như hình ảnh của các file CSAM cho đến khi việc phát hiện vượt một “ngưỡng” được thiết lập trước cho mỗi tài khoản iCloud Photos.
- Rủi ro phát hiện nhầm là rất thấp, 1 / 1 nghìn tỉ. Ngoài ra, Apple cũng đánh giá thủ công tất cả các ảnh vi phạm được gửi cho cơ quan NCMEC để đảm bảo độ chính xác
- Người dùng không thể truy cập hay xem dữ liệu ảnh của cơ sở dữ liệu đối chiếu
- Người dùng không thể biết ảnh nào được đánh dấu là có chứa nội dung lạm dụng tình dục trẻ em
Apple bị cáo buộc xây dựng “hạ tầng để giám sát”
Dù Apple đưa ra nhiều đảm bảo cho hệ thống và cách hoạt động của nó, nhưng nhiều chuyên gia bảo mật và những người ủng hộ quyền riêng tư đã đưa ra chỉ trích về kế hoạch này.
Greg Nojeim, đồng giám đốc Trung tâm Dự án Công nghệ Dân chủ & Bảo mật & Giám sát, nói rằng “Apple đang thay thế tiêu chuẩn của ngành về việc mã hóa tin nhắn từ đầu đến cuối bằng một hạ tầng để giám sát và theo dõi nội dung, điều này có thể dẫn tới hình thức lạm dụng không chỉ ở Mỹ mà cả thế giới. Apple nên bỏ những thay đổi này và khôi phục niềm tin người dùng vào tính bảo mật và độ toàn vẹn của dữ liệu trên thiết bị và dịch vụ Apple".
Trong nhiều năm qua, Apple đã từ chối yêu cầu của chính phủ Mỹ về việc cài “backdoor” trong hệ thống của mình, cụ thể là iOS, vì nói rằng việc đó sẽ làm giảm độ bảo mật của người dùng. Apple đã được nhiều chuyên gia bảo mật khen vì điều này. Nhưng với tính năng quét ảnh CSAM sắp tới, Apple có thể bị lợi dụng để làm công cụ giám sát cho chính phủ, theo lời Giáo sư Matthew Green thuộc Đại học Johns Hopkins. Ông nói thêm rằng một hệ thống tự quét nội dung như thế này chính là thứ mà nhiều chính phủ và lực lượng chức năng đã yêu cầu các công ty triển khai vào hệ thống của họ từ lâu.
Trung tâm Dự án Công nghệ Dân chủ & Bảo mật & Giám sát thì nói cơ chế quét ảnh trong app Messages không phải là một giải pháp khác cho backdoor, mà nó chính là backdoor.
Nguồn: Apple, ArsTechnica