Apple Digugat Usai Gagal Deteksi Foto Pelecehan Anak di iCloud

Apple saat ini tengah menghadapi gugatan hukum setelah dituduh gagal mendeteksi foto pelecehan seksual terhadap anak-anak (CSAM) di iCloud.

Apple Digugat Usai Gagal Deteksi Foto Pelecehan Anak di iCloud
Apple Digugat Usai Gagal Deteksi Foto Pelecehan Anak di iCloud. Gambar : Reuters/Lucas Jackson

BaperaNews - Apple menghadapi gugatan hukum setelah dituduh gagal mencegah layanan penyimpanan iCloud digunakan untuk menyimpan materi pelecehan seksual terhadap anak-anak (CSAM). 

Gugatan tersebut diajukan pada akhir pekan lalu atas nama ribuan korban pelecehan seksual anak, dengan tuduhan bahwa kelalaian Apple telah memperparah penderitaan para korban.  

Salah satu korban dalam kasus ini adalah seorang wanita berusia 27 tahun yang mengaku mengalami pelecehan sejak bayi oleh seorang kerabat.

Pelaku merekam tindakan tersebut dan mendistribusikan gambar-gambar pelecehan itu secara daring, termasuk menyimpannya di iCloud

Wanita itu mengatakan dirinya terus menerima pemberitahuan dari pihak berwenang tentang ditemukannya foto-foto tersebut di berbagai perangkat dan layanan, termasuk milik Apple.  

Gugatan ini menyoroti keputusan Apple untuk tidak melanjutkan program deteksi CSAM di layanan penyimpanannya.

Pada Agustus 2021, Apple sebenarnya sempat memperkenalkan fitur deteksi CSAM yang dinamakan NeuralHash, yang dirancang untuk mengidentifikasi konten pelecehan anak yang diketahui tersimpan di iCloud. 

Baca Juga : Kabar Baik: Menperin Agus Gumiwang Sebut Apple Bakal Investasi Rp15,9 Triliun di Indonesia, Bangun Fasilitas Produksi

Namun, rencana ini dibatalkan setelah mendapat kritik dari aktivis dan peneliti keamanan yang khawatir program tersebut dapat disalahgunakan dan mengancam privasi pengguna.  

Penggugat menyebut langkah mundur Apple tersebut sebagai bentuk pengabaian terhadap keselamatan anak. Dalam dokumen gugatan, dinyatakan bahwa Apple memiliki teknologi untuk mengidentifikasi dan menghapus materi CSAM tetapi memilih untuk tidak menggunakannya.

“Apple membiarkan materi tersebut berkembang biak, memaksa korban pelecehan seksual anak untuk terus menghadapi trauma yang menghantui hidup mereka,” tulis gugatan itu.  

Gugatan ini tidak hanya menuntut Apple untuk memberikan kompensasi kepada korban, tetapi juga mendesak perusahaan untuk mengambil langkah konkret dalam mencegah penyimpanan dan distribusi CSAM di platformnya.

Gugatan tersebut memperkirakan ada sekitar 2.680 korban yang berpotensi memenuhi syarat untuk bergabung dalam kasus ini.  

Apple hingga kini belum memberikan tanggapan resmi terhadap gugatan tersebut. Namun, seorang juru bicara perusahaan menyatakan bahwa Apple terus berinovasi secara aktif untuk memerangi kejahatan pelecehan seksual terhadap anak tanpa mengorbankan keamanan dan privasi penggunanya.

Baca Juga : Apple Ajukan Investasi Rp1,5 Triliun untuk Penuhi TKDN iPhone 16 di Indonesia