CEO Apple Craig Federighi mengatakan pemindaian keamanan Apple pada anak akan memiliki ‘berbagai tingkat kemampuan audit’

CEO Apple Craig Federighi mengatakan rencana iCloud Photos untuk memindai rekaman pelecehan seksual anak (atau CSAM) akan mencakup “beberapa tingkat verifikasi.” Dalam sebuah wawancara dengan The Wall Street Journal, Federighi, wakil presiden senior pengembangan perangkat lunak Apple, mengungkapkan rincian baru tentang langkah-langkah keamanan anak yang kontroversial. Ini termasuk klaim bahwa pemindaian tingkat perangkat iPad dan iPhone akan membantu pakar keamanan memastikan Apple menggunakan sistem secara bertanggung jawab.

Seperti banyak perusahaan penyimpanan cloud, Apple akan membandingkan Foto iCloud dengan daftar dari National Center for Missing and Exploited Children (NCMEC) yang mencari kecocokan persis dengan gambar CSAM yang diketahui. Tetapi tidak seperti banyak layanan, itu akan mencari di perangkat daripada sepenuhnya dari jarak jauh. “Bayangkan seseorang memindai gambar di cloud. Nah, siapa yang tahu apa yang mereka pindai? “Kata Federighi, mengacu pada pemindaian jarak jauh. Dalam kasus kami, basis data dikirimkan pada perangkat. Orang dapat melihat, dan ini adalah satu gambar di semua negara.”

Federighi menjelaskan sedikit bagaimana hal ini dapat memberikan kepercayaan kepada orang-orang bahwa Apple tidak banyak memperluas basis data untuk memasukkan materi selain CSAM ilegal, terutama di negara-negara dengan kebijakan sensor yang ketat.

“KAMI PASTIKAN ANDA TIDAK BOLEH PERCAYA PADA LEMBAGA APA PUN ATAU BAHKAN NEGARA APAPUN”

“Kami mengirimkan perangkat lunak yang sama ke China dengan database yang sama dengan Amerika dan Eropa. Jika seseorang datang ke Apple [meminta untuk memindai data di luar CSAM], Apple akan mengatakan tidak. Tapi katakanlah Anda tidak yakin. Anda tidak ingin hanya mengandalkan Apple untuk mengatakan tidak. Anda ingin memastikan Apple tidak lolos jika kami mengatakan ya, ”katanya kepada Journal. “Ada beberapa tingkat keterverifikasian, jadi kami memastikan Anda tidak harus mempercayai satu organisasi atau bahkan satu negara yang gambarnya menjadi bagian dari proses ini.”

Baca Juga :  A24 akan menayangkan The Green Knight Premiere pada tanggal 18 Agustus.

Apple sebelumnya mengatakan hanya menerapkan sistem di Amerika Serikat dan akan mempertimbangkan peluncuran di negara lain berdasarkan kasus per kasus. Perusahaan telah mengkonfirmasi kepada The Verge bahwa Apple akan mengirimkan basis data hash CSAM yang dikenal di sistem operasi ke semua negara, tetapi itu hanya akan digunakan untuk pemindaian di AS. Majalah tersebut juga mengklarifikasi bahwa akan ada auditor independen yang akan dapat memverifikasi gambar yang terlibat.

Federighi juga menawarkan rincian lebih lanjut tentang kapan sistem pemindaian akan memberi tahu moderator Apple tentang konten yang berpotensi ilegal. Apple sebelumnya menyatakan bahwa tidak ada kecocokan yang akan memicu bendera merah, tindakan yang dirancang untuk mencegah positif palsu. Sebagai gantinya, sistem menghasilkan “voucher keamanan” untuk setiap pertandingan dan memberi tahu Apple jika jumlahnya mencapai ambang batas tertentu. Apple menolak untuk mengumumkan ambang batas yang tepat, dengan mengatakan itu dapat memungkinkan penyerang untuk menghindari deteksi. Tapi Federighi mengatakan itu “sekitar 30 gambar pornografi anak yang terkenal.”

Beberapa pakar keamanan dengan hati-hati memuji sistem Apple dan mengakui pentingnya mencari CSAM di jaringan. Tetapi banyak yang mengkritik peluncuran mendadak Apple dan kurangnya kejelasan tentang cara kerja sistem. Dalam sebuah wawancara dengan majalah tersebut, Federighi mengakui bahwa kebingungan telah muncul. “Jelas bahwa banyak pesan yang cukup membingungkan dalam hal bagaimana mereka dipahami,” katanya.

 

sumber

Leave a Reply

Your email address will not be published. Required fields are marked *