Apple Bakal Tunda Perilisan Fitur CSAM Scanning Usai Dikritik Pengguna!

- Minggu, 5 September 2021 | 09:01 WIB
Tampilan smartphone iPhone besutan Apple (photo/Unsplash/Sumudu Mohottige)
Tampilan smartphone iPhone besutan Apple (photo/Unsplash/Sumudu Mohottige)

Pada bulan Agustus lalu Apple telah mengumumkan sebuah fitur yang memungkinkan mereka melacak isi galeri foto pengguna perangkat iOS demi mencari foto pornografi anak-anak.

Meskipun niatnya sangat baik, tetapi cara yang dilakukan oleh Apple yang melacak isi galeri para penggunanya membuat banyak orang takut karena ternyata Apple nantinya bisa melihat seluruh isi galeri para penggunanya.

Banyak yang takut jika nantinya fitur tersebut bisa digunakan oleh pemerintah untuk memata-matai para masyarakatnya untuk keperluan lain.

Setelah dibicarakan banyak orang di sosial media hingga mantan pegawai CIA yaitu Edward Snowden mengecam fitur tersebut, kini Apple memutuskan menunda peluncuran fitur tersebut.

"Bulan lalu kami mengumumkan rencana untuk fitur yang membantu melindungi anak-anak dari predator yang menggunakan aplikasi untuk merekrut ataupun mengeksploitasi mereka. Berdasarkan tanggapan dari konsumen, peneliti, dan lainnya, kami memutuskan untuk mengambil waktu lebih lama untuk membawa peningkatan sebelum merilisnya," ucap pihak Apple.

Hal tersebut tidak menunjukkan jika nantinya fitur tersebut yang diberi nama CSAM (Child Sexual Abuse Material) Scanning tersebut tak jadi dirilis. Tapi Apple ingin meninjau lebih lanjut dan tetap akan merilisnya namun dengan perubahan yang akan dihadirkan.

Bagaimana menurut kalian tentang kehadiran fitur tersebut? Tulis di kolom komentar di bawah ya guys!

Artikel Menarik Lainnya:

Editor: Administrator

Tags

Rekomendasi

Terkini

Samsung Galaxy A54 vs A55, Mana Lebih Canggih?

Selasa, 26 Maret 2024 | 10:30 WIB

Xiaomi Pad 5 Mulai Kebagian Update HyperOS

Minggu, 24 Maret 2024 | 13:30 WIB
X