TeknologiTerkini

Fitur Baru iPhone Bisa Deteksi Tindakan Pelecehan Anak

Appel baru-baru ini menyematkan berbagai fitur baru untuk mencegah terjadinya pelecehan seksual terhadap anak di perangkat iPhone. Fitur ini akan ditanamkan di dalam aplikasi iPhone untuk memberikan rasa aman terhadap orang tua maupun anak-anak.

Sistem ini akan mendeteksi materi pelecehan seksual anak (CSAM) menggunakan proses bernama hashing, dimana gambar akan diubah menjadi nomor unik yang mewakili gambar tersebut.

Pihak Apple mengungkapkan bahwa fitur-fitur tersebut akan hadir di tahun ini dalam pembaruan untuk iOS 15, iPadOS 15, watchOS 8, dan macOS Monterey.

Fitur baru iPhone tersebut akan dihadirkan di aplikasi Messages. Nantinya, aplikasi akan memberikan notifikasi peringatan kepada orang tua saat anak-anak mereka mengirim atau menerima foto yang eksplisit secara seksual.

Ketika seseorang mengirim gambar yang tidak pantas kepada seorang anak, aplikasi akan mengaburkannya dan menampilkan beberapa peringatan. Tentunya konten ini berpotensi mengarah ke pelecehan anak.

Sayangnya,beberapa fitur iuntuk perangkat Apple ini tampaknya belum akan dirilis secara global dan masih terbatas bagi pengguna di AS.

Dikutip dari cnbc ,Sebelum gambar disimpan di iCloud Apple, Apple mencocokkan hash gambar dengan database hash yang disediakan oleh National Center for Missing and Exploited Children (NCMEC). Basis data itu akan didistribusikan dalam kode iOS dimulai dengan pembaruan ke iOS 15. Proses pencocokan dilakukan di iPhone pengguna, bukan di cloud, kata Apple.

Jika Apple kemudian mendeteksi sejumlah file yang melanggar di akun iCloud, sistem akan mengunggah file yang memungkinkan Apple untuk mendekripsi dan melihat gambar di akun itu. Seseorang akan meninjau gambar secara manual untuk mengonfirmasi apakah ada kecocokan atau tidak.

Apple hanya akan dapat meninjau gambar yang cocok dengan konten yang sudah diketahui dan dilaporkan ke database ini — Apple tidak akan dapat mendeteksi foto orang tua dari anak-anak mereka di kamar mandi, misalnya, karena gambar ini tidak akan menjadi bagian dari database NCMEC.

Jika orang yang melakukan tinjauan manual menyimpulkan bahwa sistem tidak melakukan kesalahan, maka Apple akan menonaktifkan akun iCloud pengguna, dan mengirim laporan ke NCMEC atau memberi tahu penegak hukum jika perlu. Pengguna dapat mengajukan banding ke Apple jika mereka merasa akun mereka ditandai secara tidak sengaja, kata perwakilan Apple.

Sistem ini hanya berfungsi pada gambar yang diunggah ke iCloud, yang dapat dimatikan oleh pengguna, kata Apple. Foto atau gambar lain di perangkat yang belum diunggah ke server Apple tidak akan menjadi bagian dari sistem.

Beberapa peneliti keamanan telah menyuarakan keprihatinan bahwa teknologi ini pada akhirnya dapat digunakan untuk mengidentifikasi jenis gambar lain, seperti foto protes politik. Apple mengatakan bahwa sistemnya dibuat sedemikian rupa sehingga hanya berfungsi dan hanya dapat bekerja dengan gambar yang dikatalogkan oleh NCMEC atau organisasi keselamatan anak lainnya, dan bahwa cara membuat kriptografi mencegahnya digunakan untuk tujuan lain.

Untuk memberikan lapisan keamanan tambahan, Apple memanfaatkan teknologi threshold secret sharing. Teknologi ini tidak akan mengizinkan siapapun dapat melihat isi dari enkripsi, kecuali seseorang melewati ambang batas yang tidak ditentukan dari konten CSAM.

 

Apple menjelaskan, fitur ini tersedia di akun iCloud keluarga. Oleh karenanya, terdapat fitur lain yang memungkinkan sistem untuk mendeteksi ketika seseorang mengunggah konten ke iCloud yang menunjukkan anak-anak terlibat dalam tindakan seksual eksplisit.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button