Imagey By Getty Image

Apple brencana untuk membatasi penggunaan gambar pelecehan seksual terhadap anak

Ketika Apple mengumumkan perubahan yang rencananya akan dilakukan pada perangkat iOS untuk membantu mengekang pelecehan anak melalui pencarian Materi Pelecehan Seksual Anak (CSAM), sebagian dari rencananya menuai reaksi.

Pertama, perusahaan meluncurkan pembaruan untuk aplikasi Pencarian dan asisten suara Siri di iOS 15, watchOS 8, iPadOS 15, dan macOS Monterey. Saat pengguna mencari topik yang terkait dengan pelecehan seksual anak, Apple mengarahkan pengguna ke sumber daya untuk melaporkan CSAM atau mendapatkan bantuan untuk menarik konten tersebut.

Namun dua rencana CSAM Apple lainnya menuai kritik. Satu pembaruan akan menambahkan opsi kontrol orang tua ke Pesan, memberi tahu orang tua jika seorang anak berusia 12 tahun atau lebih muda melihat atau mengunggah gambar seksual eksplisit, dan menyembunyikan gambar untuk semua pengguna di bawah usia 18 tahun.

Paling kontroversial ternyata rencana Apple untuk memindai gambar pada perangkat untuk menemukan CSAM sebelum gambar diunggah ke iCloud, melaporkannya ke moderator Apple, yang kemudian dapat mentransfer gambar ke Pusat Nasional untuk Anak Hilang dan Tereksploitasi (NCMEC). dalam kasus pertandingan potensial. Sementara Apple mengatakan fitur tersebut akan melindungi pengguna dengan memungkinkan perusahaan untuk menemukan konten ilegal, banyak kritikus dan pendukung privasi Apple mengatakan ketentuan tersebut pada dasarnya adalah celah keamanan yang jelas bertentangan dengan komitmen lama Apple terhadap privasi pengguna. …

Untuk berita terbaru tentang rencana Apple untuk melindungi CSAM, ikuti terus cerita kami, yang akan kami perbarui saat perkembangan baru muncul. Jika Anda membutuhkan titik awal, Baca Selengkapnya Di Sini.

Baca Juga :  Cara terbaru cek kuota XL untuk sms telpon dan internet

Leave a Reply

Your email address will not be published. Required fields are marked *