Sistem CSAM Apple telah ditipu, tetapi syarikat itu mempunyai dua perlindungan

Kemas kini: Apple menyebut pemeriksaan kedua pelayan, dan syarikat penglihatan komputer profesional menggariskan kemungkinan perkara ini boleh diterangkan dalam "Bagaimana pemeriksaan kedua mungkin berfungsi" di bawah.
Selepas pembangun menterbalikkan bahagian kejuruteraan itu, versi awal sistem Apple CSAM telah ditipu dengan berkesan untuk menandakan imej yang tidak bersalah.Walau bagaimanapun, Apple menyatakan bahawa ia mempunyai perlindungan tambahan untuk mengelakkan perkara ini daripada berlaku dalam kehidupan sebenar.
Perkembangan terkini berlaku selepas algoritma NeuralHash diterbitkan ke laman web pembangun sumber terbuka GitHub, sesiapa sahaja boleh mencubanya…
Semua sistem CSAM berfungsi dengan mengimport pangkalan data bahan penderaan seksual kanak-kanak yang diketahui daripada organisasi seperti National Center for Missing and Exploited Children (NCMEC).Pangkalan data disediakan dalam bentuk cincang atau cap jari digital daripada imej.
Walaupun kebanyakan gergasi teknologi mengimbas foto yang dimuat naik dalam awan, Apple menggunakan algoritma NeuralHash pada iPhone pelanggan untuk menjana nilai cincang foto yang disimpan, dan kemudian membandingkannya dengan salinan nilai cincang CSAM yang dimuat turun.
Semalam, seorang pemaju mendakwa telah merekayasa terbalik algoritma Apple dan mengeluarkan kod tersebut kepada GitHub-dakwaan ini telah disahkan secara berkesan oleh Apple.
Dalam beberapa jam selepas GitHib dikeluarkan, para penyelidik berjaya menggunakan algoritma untuk mencipta positif palsu yang disengajakan-dua imej yang sama sekali berbeza yang menghasilkan nilai cincang yang sama.Ini dipanggil perlanggaran.
Untuk sistem sedemikian, sentiasa ada risiko perlanggaran, kerana cincang sudah tentu merupakan perwakilan imej yang sangat dipermudahkan, tetapi ia mengejutkan bahawa seseorang boleh menjana imej dengan begitu cepat.
Perlanggaran yang disengajakan di sini hanyalah bukti konsep.Pembangun tidak mempunyai akses kepada pangkalan data cincang CSAM, yang memerlukan penciptaan positif palsu dalam sistem masa nyata, tetapi ia membuktikan bahawa serangan perlanggaran pada dasarnya agak mudah.
Apple secara berkesan mengesahkan bahawa algoritma adalah asas sistemnya sendiri, tetapi memberitahu motherboard bahawa ini bukan versi terakhir.Syarikat itu juga menyatakan bahawa ia tidak pernah berniat untuk merahsiakannya.
Apple memberitahu Motherboard dalam e-mel bahawa versi yang dianalisis oleh pengguna pada GitHub ialah versi generik, bukan versi akhir yang digunakan untuk pengesanan iCloud Photo CSAM.Apple berkata ia juga mendedahkan algoritma.
"Algoritma NeuralHash [...] adalah sebahagian daripada kod sistem pengendalian yang ditandatangani [dan] penyelidik keselamatan boleh mengesahkan bahawa kelakuannya mematuhi penerangan," tulis dokumen Apple.
Syarikat itu seterusnya mengatakan terdapat dua lagi langkah: menjalankan sistem pemadanan sekunder (rahsia) pada pelayannya sendiri, dan semakan manual.
Apple juga menyatakan bahawa selepas pengguna melepasi ambang 30 perlawanan, algoritma bukan awam kedua yang dijalankan pada pelayan Apple akan menyemak keputusan.
"Cincang bebas ini dipilih untuk menolak kemungkinan NeuralHash yang salah sepadan dengan pangkalan data CSAM yang disulitkan pada peranti kerana gangguan musuh imej bukan CSAM dan melebihi ambang padanan."
Brad Dwyer dari Roboflow menemui cara untuk membezakan dengan mudah antara dua imej yang disiarkan sebagai bukti konsep untuk serangan perlanggaran.
Saya ingin tahu bagaimana imej ini kelihatan dalam CLIP pengekstrak ciri saraf OpenAI yang serupa tetapi berbeza.CLIP berfungsi sama dengan NeuralHash;ia mengambil imej dan menggunakan rangkaian saraf untuk menjana satu set vektor ciri yang memetakan kepada kandungan imej.
Tetapi rangkaian OpenAI berbeza.Ia adalah model umum yang boleh memetakan antara imej dan teks.Ini bermakna kita boleh menggunakannya untuk mengekstrak maklumat imej yang boleh difahami manusia.
Saya menjalankan dua imej perlanggaran di atas melalui CLIP untuk melihat sama ada ia juga tertipu.Jawapan ringkasnya ialah: tidak.Ini bermakna Apple sepatutnya boleh menggunakan rangkaian pengekstrak ciri kedua (seperti CLIP) pada imej CSAM yang dikesan untuk menentukan sama ada ia adalah asli atau palsu.Adalah lebih sukar untuk menjana imej yang menipu dua rangkaian pada masa yang sama.
Akhir sekali, seperti yang dinyatakan sebelum ini, imej disemak secara manual untuk mengesahkan bahawa ia adalah CSAM.
Seorang penyelidik keselamatan berkata bahawa satu-satunya risiko sebenar ialah sesiapa yang ingin mengganggu Apple boleh memberikan positif palsu kepada pengulas manusia.
“Apple sebenarnya mereka bentuk sistem ini, jadi fungsi cincang tidak perlu dirahsiakan, kerana satu-satunya perkara yang anda boleh lakukan dengan 'bukan CSAM sebagai CSAM' ialah mengganggu pasukan respons Apple dengan beberapa imej sampah sehingga mereka melaksanakan penapis untuk menghapuskan analisis Sampah-sampah dalam saluran paip itu adalah positif palsu,” Nicholas Weaver, seorang penyelidik kanan di Institut Sains Komputer Antarabangsa di Universiti California, Berkeley, memberitahu Motherboard dalam sembang dalam talian.
Privasi ialah isu yang semakin membimbangkan di dunia hari ini.Ikuti semua laporan yang berkaitan dengan privasi, keselamatan, dsb. dalam garis panduan kami.
Ben Lovejoy ialah seorang penulis teknikal British dan editor EU untuk 9to5Mac.Dia terkenal dengan lajur dan artikel diarinya, meneroka pengalamannya dengan produk Apple dari semasa ke semasa untuk mendapatkan ulasan yang lebih komprehensif.Dia juga menulis novel, terdapat dua thriller teknikal, beberapa filem fiksyen sains pendek dan rom-com!


Masa siaran: Ogos-20-2021