
TIKTAK.ID – Apple diketahui telah membuat fitur khusus yang mampu mendeteksi pelecehan anak, dengan cara memindai foto yang ada di iCloud. Jika Apple menemukan ada konten pelecehan, maka akan dilaporkan ke penegak hukum.
Seperti dilansir detik.com, sistem tersebut bakal mendeteksi materi pelecehan seksual anak (CSAM) menggunakan proses bernama hashing, yang gambar bakal diubah menjadi nomor unik mewakili gambar tersebut.
Apple dikabarkan mulai menguji coba sistem itu pada pekan ini, namun masih terbatas di Amerika Serikat. Nantinya, sistem tersebut akan menjadi bagian dari iOS 15, iPadOS 15, watchOS 8, serta macOS Monterey.
Cara kerja fitur itu dengan mencocokkan hash gambar dengan database hash yang disediakan oleh National Center for Missing and Exploited Children (NCMEC). Proses pencocokan tersebut nantinya dilakukan di iPhone pengguna, bukan di iCloud.
Kemudian bila Apple mendeteksi beberapa foto yang melanggar aturan di akun iCloud, maka sistem mengunggah file yang memungkinkan Apple untuk mendekripsi dan melihat foto di akun itu. Lantas foto itu ditinjau secara manual oleh seorang reviewer untuk mengonfirmasi apakah ada kecocokan atau tidak.
Apple mengklaim bahwa mereka hanya akan bisa meninjau foto yang cocok dengan konten yang telah ada di database. Artinya, mereka tidak mendeteksi foto anak saat sedang mandi yang diambil oleh orang tuanya karena foto itu tidak ada di dalam database NCMEC.
Lebih lanjut, jika orang yang meninjau foto secara manual menemukan kecocokan antara foto dengan database NCMEC, Apple akan menonaktifkan akun iCloud pengguna. Setelah itu, Apple mengirimkan laporan ke NCMEC atau ke penegak hukum jika diperlukan, mengutip CNBC, Minggu (8/8/21).
Menurut juru bicara Apple, pengguna dapat mengajukan banding ke Apple jika akun iCloud mereka dinonaktifkan secara tidak sengaja. Sistem tersebut hanya mampu mendeteksi foto yang diunggah ke iCloud, sehingga foto atau gambar lainnya yang ada di perangkat namun belum diunggah ke iCloud tidak akan terdeteksi oleh sistem.
Sementara itu, meski fitur ini belum dirilis, peneliti keamanan mengaku khawatir fitur ini bisa digunakan untuk mendeteksi foto lain, misalnya foto saat protes politik. Namun Apple menegaskan, sistem buatannya dirancang hanya dapat digunakan mendeteksi foto yang ada di database NCMEC atau organisasi keamanan anak lainnya, dan kriptografi yang dibuat tidak bisa digunakan untuk tujuan lain.