Home Apple Apple Tidak Akan Memberikan Akses CASM Kepada Kerajaan. Anda Skeptikal? Mari Baca.

Apple Tidak Akan Memberikan Akses CASM Kepada Kerajaan. Anda Skeptikal? Mari Baca.

by ATAN x MG

CASM. Ia adalah fungsi daripada Apple untuk kemaskini iOS 15 yang akan datang ini. Ia merupakan fungsi yang sangat kontroversi melibatkan campur tangan daripada kerajaan untuk digunakan bagi tujuan keselamatan. Jika sudah sampai campur tangan dari kerajaan macam ni, fungsi ini penting atau bahaya sangat ka? Ia geng. Fungsi ini sangat crucial. Macam satu kuasa kalau jatuh di tangan orang yang salah, memang boleh guna untuk perkara negatif. CASM. What is that?

CASM – CHILD ABUSE SEX MATERIAL

CASM adalah singkatan bagi Child Abuse Sex Material. Ia adalah fungsi dimana pihak Apple akan mengesan gambar yang telah disimpan pada storan awan Apple bagi mengenal pasti kes sex bawah umur/pukul kanak-kanak atau apa sahaja yang melibatkan salah laku terhap kanak-kanak/bawah umur. Fungsi ini mendapat perhatian orang ramai dan menerima pelbagai reaksi. Ada yang positif dan semestinya ada yang negatif. Namun pihak Apple mempertahankan fungsi yang mereka ingin buat ini sebagai satu perkara yang boleh membantu dalam sesuatu keadaan. Ada benarnya jika kita melihat sekali lalu. Namun ada kesannya jika tersalah guna.

Disebabkan ini, pihak kerajaan telah masuk campur dan meminta agar pihak Apple berkongsi fungsi ini dengan mereka. Ini membolehkan kerajaan dapat mengakses gambar di storan awan Apple bagi tujuan yang sama, membanteras apa-apa kes bawah umur. Fungsi CASM ini juga bukan sahaja mengesan gambar di storan awan malah mengesan pada aplikasi iMessage jika terdapat mesej berbaur lucah pada kanak-kanak.

Reaksi yang paling ketara adalah ramai tidak mahu CASM ini boleh diakses oleh kerajaan kerana ramai takut kerajaan akan mengubah atau menambah akta seperti mahu mengesan seseorang, menggunakan untuk undang-undang, melihat gambar bagi tujuan pribadi, Siriusly geng, fungsi ini memang menakutkan,

Pihak Apple telah menjawab kepada kerajaan bahawa mereka tidak akan memberi akses kepada kerajaan walau sekali pun samada sekarang atau pun pada masa hadapan.

Apple will refuse any such demands [from a government]. Apple’s CSAM detection capability is built solely to detect known CSAM images stored in iCloud Photos that have been identified by experts at NCMEC and other child safety groups. We have faced demands to build and deploy government-mandated changes that degrade the privacy of users before, and have steadfastly refused those demands. We will continue to refuse them in the future.

Namun begitu, terdapat beberapa perkara yang agak ironi disini.

  • Apple akan melancarkan CSAM ini pada storan awan mereka. Adakah data kita akan selamat dan tidak akan bocor? Atau batalkan sahaja fungsi ini?
  • Boleh jadi Apple sendiri akan ambil gambar porno/sex bawah umur untuk tujuan sendiri (jika ada gambar) namun Apple berkata mereka tidak akan gunakan data tersebut untuk tujuan lain. Hanya untuk keselamatan.
  • Dengan kewujudan CSAM ini, Apple akan mengesan semua gambar di storan awan maksudnya gambar pribadi pon Apple boleh lihat?
  • Berkenaan mengesan pada aplikasi iMessage, Apple mungkin dapat mengetahui sesuatu yang sulit pada seseorang.

Pada pendapat kami, terdapat banyak implikasi yang boleh terjadi. Katakan jika terdapat kes pada kanak-kanak bawah umur yang kita tak tahu pun berlaku, Mungkin dengan CASM ini pihak polis dapat info dan boleh serbu terus pada tempat tersebut. ATAU jika berlaku salah guna, mungkin gambar-gambar pribadi sendiri akan bocor untuk tontonan orang awam, dah jadi satu kes pulak geng. Anda bagaimana? Adakah anda setuju ataupun ada jenis skeptikal terhadap sesuatu? Kongsikan dengan kami.

Sumber : Gizmodo

You may also like

Leave a Comment