Fitur Baru Dari Apple Untuk perlindungan anak

Apple berkomitmen terhadap privasi. Perusahaan telah mempromosikan pesan terenkripsi di seluruh ekosistemnya, mendorong pembatasan tentang bagaimana aplikasi seluler dapat mengumpulkan data, dan melawan penegakan hukum yang mencari catatan pengguna. Pekan lalu, bagaimanapun, Apple melawan tuduhan bahwa rilis iOS dan iPadOS yang akan datang akan melemahkan privasi pengguna.

Perdebatan tersebut bermula dari pengumuman Apple pada hari Kamis. Secara teori, idenya cukup sederhana: Apple ingin memerangi pelecehan seksual anak dan mengambil langkah tambahan untuk menemukan dan menghentikannya. Tetapi para kritikus mengatakan strategi Apple dapat melemahkan kontrol pengguna atas ponsel mereka, memaksa mereka untuk mengandalkan janji Apple bahwa itu tidak akan menyalahgunakan kekuatannya. Tanggapan Apple menunjukkan betapa sulitnya – dan terkadang benar-benar membingungkan – percakapan itu.

APA YANG DIUMUMKAN APPLE MINGGU TERAKHIR?
Apple mengumumkan tiga perubahan yang akan dirilis akhir tahun ini – semuanya terkait dengan mengakhiri pelecehan seksual terhadap anak, tetapi menargetkan aplikasi yang berbeda dengan set fitur yang berbeda.

Perubahan pertama menyangkut aplikasi Pencarian Apple dan Siri. Jika pengguna mencari topik yang terkait dengan pelecehan seksual anak, Apple akan merujuk mereka ke sumber daya untuk melaporkannya atau mendapatkan bantuan untuk merekrut mereka. Ini akan diluncurkan akhir tahun ini di iOS 15, watchOS 8, iPadOS 15, dan macOS Monterey, dan sebagian besar tidak kontroversial.

Namun, pembaruan lain telah menghasilkan lebih banyak reaksi. Satu menambahkan opsi kontrol orang tua ke Pesan, menyembunyikan gambar seksual eksplisit untuk pengguna di bawah usia 18 tahun dan memperingatkan orang tua jika seorang anak berusia 12 tahun atau lebih muda melihat atau mengirim gambar tersebut.

Fitur baru terbaru memindai Foto iCloud untuk menemukan pelecehan seksual anak, atau CSAM, dan memberi tahu moderator Apple yang dapat mengirimkannya ke Pusat Nasional untuk Anak Hilang dan Tereksploitasi atau NCMEC. Apple mengatakan telah mengembangkan fitur ini secara khusus untuk melindungi privasi pengguna ketika konten ilegal terdeteksi. Kritikus mengatakan desain yang sama merupakan pintu belakang keamanan.

APA YANG DILAKUKAN APPLE DENGAN PESAN?
Apple memperkenalkan fitur pesan yang dirancang untuk membantu melindungi anak-anak dari gambar yang tidak pantas. Jika orang tua setuju, perangkat dengan pengguna di bawah usia 18 tahun akan memindai gambar masuk dan keluar menggunakan pengklasifikasi gambar yang dilatih pornografi untuk konten “eksplisit seksual”. (Apple mengatakan ini secara teknis tidak terbatas pada ketelanjangan, tetapi filter ketelanjangan adalah deskripsi yang akurat.) Jika pengklasifikasi mendeteksi konten ini, ia menyembunyikan gambar yang dimaksud dan menanyakan pengguna apakah mereka benar-benar ingin melihat atau mengirimkannya.

A screenshot of Apple’s Messages filter for sexually explicit content.
Pembaruan, yang ditujukan untuk akun yang dibuat sebagai keluarga di iCloud di iOS 15, iPadOS 15, dan macOS Monterey, juga menyertakan opsi tambahan. Jika pengguna mengeklik lansiran ini dan berusia di bawah 13 tahun, Message akan dapat memberi tahu orang tua bahwa mereka telah melakukannya. Anak-anak akan melihat peringatan bahwa orang tua mereka akan menerima pemberitahuan dan orang tua tidak akan melihat pesan yang sebenarnya. Sistem tidak mengomunikasikan apa pun kepada moderator Apple atau orang lain.

Gambar dapat ditemukan di perangkat, yang menurut Apple melindungi privasi. Dan orang tua diberi tahu jika anak-anak benar-benar mengonfirmasi bahwa mereka ingin melihat atau mengirim konten dewasa, bukan hanya menerimanya. Pada saat yang sama, kritikus seperti instruktur Harvard Cyberlaw Clinic Kendra Albert telah menyatakan keprihatinan tentang pemberitahuan tersebut – menyatakan bahwa mereka dapat berakhir berkencan dengan anak-anak gay atau transgender, misalnya dengan mendorong orang tua mereka untuk memata-matai mereka.

APA SISTEM PEMINDAI FOTO ICLOUD BARU Apple?
Mesin pemindaian Foto iCloud dirancang untuk mencari gambar pelecehan seksual anak yang ilegal untuk disimpan. Jika Anda adalah pengguna iOS atau iPadOS di AS dan menyinkronkan gambar ke Foto iCloud, perangkat Anda akan membandingkan gambar tersebut secara lokal dengan daftar CSAM yang dikenal. Jika menemukan kecocokan yang cukup, itu akan memberi tahu moderator Apple dan menampilkan detail kecocokan. Jika moderator mengonfirmasi keberadaan CSAM, ia akan menonaktifkan akun dan melaporkan gambar tersebut ke penegak hukum.

 

APAKAH CSAM SCANNING IDE BARU?
Tidak semuanya. Facebook, Twitter, Reddit, dan banyak perusahaan lain memindai file pengguna terhadap pustaka hash, sering kali menggunakan alat buatan Microsoft yang disebut PhotoDNA. Mereka juga diwajibkan secara hukum untuk melaporkan CSAM ke National Center for Missing and Exploited Children (NCMEC), sebuah lembaga nonprofit yang bekerja sama dengan penegak hukum.

Apple telah membatasi upayanya sampai sekarang. Perusahaan telah mengatakan sebelumnya bahwa mereka menggunakan teknologi pencocokan gambar untuk menemukan eksploitasi anak. Namun dalam panggilan dengan wartawan, dikatakan tidak pernah memindai data Foto iCloud. (Ini menegaskan bahwa itu sudah memindai iCloud Mail tetapi tidak menawarkan detail lebih lanjut tentang memindai layanan Apple lainnya.)

Baca Juga :  Windows 11 melakukan pembaruan pada : snipping tool, calculator, and mail apps

APAKAH SISTEM BARU APPLE BERBEDA DENGAN PEMINDAIAN PERUSAHAAN LAIN?
Pemindaian CSAM biasa berjalan dari jarak jauh dan melihat file yang disimpan di server. Sistem Apple, sebaliknya, memeriksa kecocokan secara lokal di iPhone atau iPad Anda.

Sistem bekerja sebagai berikut. Saat Foto iCloud diaktifkan pada perangkat, perangkat menggunakan alat yang disebut NeuralHash untuk memecah gambar-gambar ini menjadi hash — pada dasarnya rangkaian angka yang mengidentifikasi karakteristik unik dari suatu gambar tetapi tidak dapat direkonstruksi untuk mengungkapkan gambar itu sendiri. Kemudian, ia membandingkan hash ini dengan daftar hash yang tersimpan dari NCMEC, yang mengkompilasi jutaan hash yang sesuai dengan konten CSAM yang diketahui. (Sekali lagi, seperti yang disebutkan di atas, tidak ada gambar atau video yang sebenarnya.)

Jika sistem Apple menemukan kecocokan, ponsel Anda akan membuat “voucher keamanan” yang diunggah ke Foto iCloud. Setiap voucher keselamatan menunjukkan bahwa ada kecocokan, tetapi tidak memberi tahu moderator mana pun dan mengenkripsi detailnya, sehingga karyawan Apple tidak dapat melihatnya dan melihat foto mana yang cocok. Namun, jika akun Anda menghasilkan sejumlah voucher, semua voucher akan didekripsi dan ditandai ke moderator manusia Apple — yang kemudian dapat meninjau foto dan melihat apakah foto tersebut mengandung CSAM.

Apple menekankan bahwa itu secara eksklusif melihat foto yang Anda sinkronkan dengan iCloud, bukan foto yang hanya disimpan di perangkat Anda. Ini memberitahu wartawan bahwa menonaktifkan Foto iCloud akan sepenuhnya menonaktifkan semua bagian dari sistem pemindaian, termasuk generasi hash lokal. “Jika pengguna tidak menggunakan Foto iCloud, NeuralHash tidak akan berjalan dan tidak akan menghasilkan voucher apa pun,” kata kepala privasi Apple Erik Neuenschwander kepada TechCrunch dalam sebuah wawancara.

Apple telah menggunakan pemrosesan di perangkat untuk meningkatkan kredensial privasinya di masa lalu. iOS dapat melakukan banyak analisis AI tanpa mengirimkan data Anda ke server cloud, misalnya, yang berarti lebih sedikit peluang bagi pihak ketiga untuk mendapatkannya.

Tetapi perbedaan lokal / jarak jauh di sini sangat kontroversial, dan setelah reaksi balik, Apple telah menghabiskan beberapa hari terakhir menggambar garis yang sangat halus di antara keduanya.

MENGAPA BEBERAPA ORANG KERAS TENTANG PERUBAHAN INI?
Sebelum kita masuk ke kritik, ada baiknya mengatakan: Apple telah mendapat pujian untuk pembaruan ini dari beberapa pakar privasi dan keamanan, termasuk kriptografer dan ilmuwan komputer terkemuka Mihir Bellare, David Forsyth, dan Dan Boneh. “Sistem ini kemungkinan akan secara signifikan meningkatkan kemungkinan orang yang memiliki atau lalu lintas di [CSAM] ditemukan,” kata Forsyth dalam dukungan yang diberikan oleh Apple. “Pengguna yang tidak berbahaya harus mengalami sedikit atau tanpa kehilangan privasi.”

Tetapi para ahli dan kelompok advokasi lainnya menentang perubahan tersebut. Mereka mengatakan pembaruan iCloud dan Pesan memiliki masalah yang sama: mereka membuat sistem pengawasan yang bekerja langsung dari ponsel atau tablet Anda. Itu bisa memberikan cetak biru untuk memecahkan enkripsi ujung-ke-ujung yang aman, dan bahkan jika penggunaannya terbatas saat ini, itu bisa membuka pintu bagi invasi privasi yang lebih mengganggu.

Surat terbuka tanggal 6 Agustus menguraikan keluhan secara lebih rinci. Berikut uraiannya tentang apa yang terjadi:

Sementara eksploitasi anak adalah masalah serius, dan sementara upaya untuk memeranginya hampir tidak diragukan lagi bertujuan baik, proposal Apple memperkenalkan pintu belakang yang mengancam untuk merusak perlindungan privasi mendasar bagi semua pengguna produk Apple.

Teknologi yang diusulkan Apple bekerja dengan terus memantau foto yang disimpan atau dibagikan di iPhone, iPad, atau Mac pengguna. Satu sistem mendeteksi jika sejumlah foto yang tidak pantas terdeteksi di penyimpanan iCloud dan memberi tahu pihak berwenang. Yang lain memberi tahu orang tua anak jika iMessage digunakan untuk mengirim atau menerima foto yang dianggap mengandung ketelanjangan oleh algoritme pembelajaran mesin.

Karena kedua pemeriksaan dilakukan pada perangkat pengguna, keduanya berpotensi untuk melewati enkripsi ujung ke ujung yang akan melindungi privasi pengguna.

Apple telah membantah karakterisasi di atas, terutama istilah “pintu belakang” dan deskripsi pemantauan foto yang disimpan di perangkat pengguna. Tetapi seperti yang akan kami jelaskan di bawah, ini meminta pengguna untuk menaruh banyak kepercayaan pada Apple, sementara perusahaan menghadapi tekanan pemerintah di seluruh dunia.

Baca Juga :  Peluncuran Boeing Starliner Ditunda Lagi Karena Kembali Ke Pabrik Untuk Perbaikan

 

cryption (atau E2EE) membuat data tidak dapat dibaca oleh siapa pun selain pengirim dan penerima; dengan kata lain, bahkan perusahaan yang menjalankan aplikasi tidak dapat melihatnya. Sistem yang kurang aman masih dapat dienkripsi, tetapi perusahaan dapat menyimpan kunci data sehingga mereka dapat memindai file atau memberikan akses ke penegak hukum. iMessages Apple menggunakan E2EE; Foto iCloud, seperti banyak layanan penyimpanan cloud, tidak.

Meskipun E2EE bisa sangat efektif, itu tidak serta merta menghentikan orang untuk melihat data di telepon itu sendiri. Itu membuat pintu terbuka untuk jenis pengawasan tertentu, termasuk sistem yang Apple sekarang dituduh menambahkan: pemindaian sisi klien.

APA ITU PEMINDAIAN SISI KLIEN?
Electronic Frontier Foundation memiliki garis besar rinci pemindaian sisi klien. Pada dasarnya, ini melibatkan analisis file atau pesan dalam aplikasi sebelum dikirim dalam bentuk terenkripsi, sering kali memeriksa konten yang tidak pantas — dan dalam prosesnya, melewati perlindungan E2EE dengan menargetkan perangkat itu sendiri. Dalam panggilan telepon dengan The Verge, teknolog staf senior EFF Erica Portnoy membandingkan sistem ini dengan seseorang yang melihat dari balik bahu Anda saat Anda mengirim pesan aman di ponsel Anda.

APAKAH APPLE MELAKUKAN PEMINDAIAN SISI KLIEN?
Apple dengan tegas menyangkalnya. Dalam dokumen pertanyaan yang sering diajukan, dikatakan bahwa Pesan masih dienkripsi ujung-ke-ujung dan sama sekali tidak ada detail tentang konten pesan tertentu yang dirilis kepada siapa pun, termasuk orang tua. “Apple tidak pernah mendapatkan akses ke komunikasi karena fitur ini di Pesan,” janjinya.

Itu juga menolak pembingkaian yang memindai foto di perangkat Anda untuk CSAM. “Secara desain, fitur ini hanya berlaku untuk foto yang dipilih pengguna untuk diunggah ke iCloud,” kata FAQ-nya. “Sistem tidak berfungsi untuk pengguna yang menonaktifkan Foto iCloud. Fitur ini tidak berfungsi di perpustakaan foto iPhone pribadi Anda di perangkat.” Perusahaan kemudian mengklarifikasi kepada wartawan bahwa Apple dapat memindai gambar Foto iCloud yang disinkronkan melalui layanan pihak ketiga serta aplikasinya sendiri.

Seperti yang diakui Apple, Foto iCloud bahkan tidak memiliki E2EE untuk dirusak, sehingga dapat dengan mudah menjalankan pemindaian ini di servernya — sama seperti banyak perusahaan lain. Apple berpendapat sistemnya sebenarnya lebih aman. Sebagian besar pengguna tidak mungkin memiliki CSAM di ponsel mereka, dan Apple mengklaim hanya sekitar 1 dari 1 triliun akun yang salah ditandai. Dengan sistem pemindaian lokal ini, Apple mengatakan tidak akan mengungkapkan informasi apa pun tentang foto orang lain, yang tidak akan benar jika memindai servernya.

APAKAH ARGUMEN APPLE MEYAKINKAN?
Tidak banyak kritikusnya. Seperti yang ditulis Ben Thompson di Stratechery, masalahnya bukan apakah Apple hanya mengirim pemberitahuan kepada orang tua atau membatasi pencariannya pada kategori konten tertentu. Itu karena perusahaan sedang mencari melalui data sebelum meninggalkan ponsel Anda.

Alih-alih menambahkan pemindaian CSAM ke Foto iCloud di cloud yang mereka miliki dan operasikan, Apple membahayakan ponsel yang Anda dan saya miliki dan operasikan, tanpa ada di antara kita yang memiliki suara dalam masalah ini. Ya, Anda dapat mematikan Foto iCloud untuk menonaktifkan pemindaian Apple, tetapi itu adalah keputusan kebijakan; kemampuan untuk menjangkau ke telepon pengguna sekarang ada, dan tidak ada yang dapat dilakukan pengguna iPhone untuk menyingkirkannya.

CSAM adalah ilegal dan menjijikkan. Tetapi seperti yang dicatat oleh surat terbuka untuk Apple, banyak negara telah mendorong untuk berkompromi dengan enkripsi atas nama memerangi terorisme, informasi yang salah, dan konten tidak menyenangkan lainnya. Sekarang Apple telah menetapkan preseden ini, hampir pasti akan menghadapi panggilan untuk mengembangkannya. Dan jika Apple kemudian meluncurkan enkripsi ujung ke ujung untuk iCloud – sesuatu yang dilaporkan dianggap dilakukan, meskipun tidak pernah diterapkan – itu menyusun peta jalan yang mungkin untuk menyiasati perlindungan E2EE.

Apple mengatakan akan menolak panggilan apa pun untuk menyalahgunakan sistemnya. Dan itu membanggakan banyak perlindungan: fakta bahwa orang tua tidak dapat mengaktifkan peringatan untuk remaja yang lebih tua di Pesan, bahwa voucher keamanan iCloud dienkripsi, bahwa itu menetapkan ambang batas untuk memperingatkan moderator, dan bahwa pencariannya hanya untuk AS dan sangat terbatas ke database NCMEC.

Kemampuan deteksi CSAM Apple dibuat semata-mata untuk mendeteksi gambar CSAM yang diketahui yang disimpan di Foto iCloud yang telah diidentifikasi oleh para ahli di NCMEC dan grup keselamatan anak lainnya. Kami telah menghadapi tuntutan untuk membangun dan menerapkan perubahan yang diamanatkan pemerintah yang menurunkan privasi pengguna sebelumnya, dan dengan tegas menolak tuntutan tersebut. Kami akan terus menolak mereka di masa depan. Mari kita perjelas, teknologi ini terbatas untuk mendeteksi CSAM yang disimpan di iCloud dan kami tidak akan menyetujui permintaan pemerintah mana pun untuk memperluasnya.

Baca Juga :  Mantan Istri Zikri Daulay , Henny Rahman Dinikahi Dengan Sahabatnya Sendiri Alvin Faiz

Masalahnya adalah, Apple memiliki kekuatan untuk mengubah perlindungan ini. “Setengah masalahnya adalah sistemnya sangat mudah diubah,” kata Portnoy. Apple telah berpegang teguh pada senjatanya dalam beberapa bentrokan dengan pemerintah; itu terkenal menentang permintaan Biro Investigasi Federal untuk data dari iPhone penembak massal. Tapi itu menyetujui permintaan lain seperti menyimpan data iCloud Cina secara lokal, bahkan jika itu bersikeras tidak membahayakan keamanan pengguna dengan melakukannya.

Profesor Stanford Internet Observatory Alex Stamos juga mempertanyakan seberapa baik Apple telah bekerja dengan komunitas ahli enkripsi yang lebih besar, dengan mengatakan bahwa perusahaan telah menolak untuk berpartisipasi dalam serangkaian diskusi tentang keamanan, privasi, dan enkripsi. “Dengan pengumuman ini, mereka baru saja memasuki perdebatan keseimbangan dan mendorong semua orang ke sudut terjauh tanpa konsultasi atau debat publik,” cuitnya.

BAGAIMANA MANFAAT FITUR BARU APPLE TERHADAP RISIKO?
Seperti biasa, ini rumit — dan sebagian bergantung pada apakah Anda melihat perubahan ini sebagai pengecualian terbatas atau pintu pembuka.

Apple memiliki alasan yang sah untuk meningkatkan upaya perlindungan anak. Pada akhir 2019, The New York Times menerbitkan laporan tentang “epidemi” pelecehan seksual anak online. Ini mengecam perusahaan teknologi Amerika karena gagal mengatasi penyebaran CSAM, dan dalam artikel selanjutnya, NCMEC memilih Apple karena tingkat pelaporannya yang rendah dibandingkan dengan rekan-rekan seperti Facebook, sesuatu yang oleh Times dikaitkan sebagian dengan perusahaan yang tidak memindai file iCloud.

Sementara itu, dokumen internal Apple menyebutkan bahwa iMessage memiliki masalah predator seksual. Dalam dokumen yang diungkapkan oleh uji coba Epic v. Apple baru-baru ini, seorang kepala departemen Apple mencantumkan “perawatan predator anak” sebagai “ancaman aktif” yang kekurangan sumber daya untuk platform. Perawatan sering kali termasuk mengirim anak-anak (atau meminta anak-anak untuk mengirim) gambar yang eksplisit secara seksual, yang coba diganggu oleh fitur Pesan baru Apple.

Pada saat yang sama, Apple sendiri menyebut privasi sebagai “hak asasi manusia.” Ponsel adalah perangkat intim yang penuh dengan informasi sensitif. Dengan perubahan Pesan dan iCloud, Apple telah menunjukkan dua cara untuk mencari atau menganalisis konten secara langsung di perangkat keras daripada setelah Anda mengirim data ke pihak ketiga, bahkan jika itu menganalisis data yang telah Anda setujui untuk dikirim, seperti foto iCloud.

Apple telah mengakui keberatan atas pembaruannya. Namun sejauh ini, belum ada indikasi rencana untuk memodifikasi atau mengabaikannya. Pada hari Jumat, sebuah memo internal mengakui “kesalahpahaman” tetapi memuji perubahan tersebut. “Apa yang kami umumkan hari ini adalah produk dari kolaborasi luar biasa ini, yang menghadirkan alat untuk melindungi anak-anak, tetapi juga mempertahankan komitmen mendalam Apple terhadap privasi pengguna,” bunyinya. “Kami tahu beberapa orang memiliki kesalahpahaman, dan lebih dari beberapa khawatir tentang implikasinya, tetapi kami akan terus menjelaskan dan merinci fitur-fiturnya sehingga orang-orang memahami apa yang telah kami buat.”

 

Sementara itu, pengajuan internal Apple mengatakan iMessage memiliki masalah predator seksual. Dalam dokumen yang terungkap dalam uji coba Epic v. Apple baru-baru ini, kepala Apple menggambarkan “merawat anak-anak predator” sebagai “ancaman aktif” ke platform dengan sumber daya terbatas. Meninggalkan sering kali melibatkan pengiriman anak-anak (atau meminta mereka untuk mengirim) gambar eksplisit secara seksual, dan itulah yang coba dihancurkan oleh fitur perpesanan baru Apple.

Pada saat yang sama, Apple sendiri menyebut privasi sebagai “hak asasi manusia”. Telepon adalah perangkat intim yang diisi dengan informasi rahasia. Dalam perubahannya pada Pesan dan iCloud, Apple telah mendemonstrasikan dua cara untuk mencari atau menganalisis konten secara langsung di perangkat keras, bukan setelah Anda mengirim data ke pihak ketiga, bahkan jika itu menganalisis data yang Anda setujui untuk dikirim, seperti foto iCloud.

Apple telah mengakui keberatan atas pembaruannya. Namun sejauh ini belum ada rencana yang diumumkan untuk mengubah atau mengabaikannya. Pada hari Jumat, sebuah memo internal mengakui “kesalahpahaman” tetapi menambahkan pujian. “Apa yang kami umumkan hari ini adalah produk dari kolaborasi luar biasa yang menyediakan alat untuk melindungi anak-anak, tetapi juga mendukung komitmen mendalam Apple terhadap privasi pengguna,” katanya. “Kami tahu bahwa beberapa orang memiliki kesalahpahaman dan banyak yang khawatir tentang konsekuensinya, tetapi kami akan terus menjelaskan dan merinci fungsi sehingga orang memahami apa yang telah kami buat.”

Leave a Reply

Your email address will not be published. Required fields are marked *