Ilmuwan Komputer Membuat Video Palsu Yang Membodohi Detektor Deepfake Canggih

Sistem yang dirancang untuk mendeteksi pemalsuan yang dalam – video yang memanipulasi rekaman kehidupan nyata menggunakan kecerdasan buatan – dapat ditipu, ilmuwan komputer menunjukkan untuk pertama kalinya pada konferensi WACV 2021 yang diadakan secara online pada tanggal 5 hingga 9 Januari 2021.

Para peneliti telah menunjukkan bahwa detektor dapat dikalahkan dengan memasukkan input ke dalam contoh yang berlawanan di setiap bingkai video. Contoh yang merugikan adalah input yang sedikit dimanipulasi yang menyebabkan sistem kecerdasan buatan seperti model pembelajaran mesin membuat kesalahan. Selain itu, tim menunjukkan bahwa serangan tersebut masih berfungsi setelah mengompresi video.

“Pekerjaan kami menunjukkan bahwa serangan terhadap detektor deepfake bisa menjadi ancaman dunia nyata,” kata Shehzeen Hussain, insinyur komputer di UC San Diego Ph.D. siswa dan rekan penulis pertama di kartu WACV. “Yang lebih mengkhawatirkan, kami menunjukkan bahwa dimungkinkan untuk membuat musuh palsu yang tangguh bahkan ketika musuh mungkin tidak mengetahui cara kerja internal model pembelajaran mesin yang digunakan oleh detektor.”

Dalam deepfake, wajah subjek dimodifikasi untuk membuat film peristiwa yang realistis dan meyakinkan yang belum pernah terjadi. Akibatnya, detektor deepfake yang khas fokus pada wajah dalam video: pelacakan pertama, lalu transmisi data wajah yang dipotong ke jaringan saraf yang menentukan apakah itu benar atau salah. Misalnya, pijar mata tidak direproduksi dengan baik dalam pemalsuan yang dalam, jadi detektor memfokuskan pada gerakan mata sebagai cara untuk membuat penentuan ini. Detektor Deepfake tingkat lanjut mengandalkan model pembelajaran mesin untuk mengidentifikasi video palsu.


XceptionNet, detektor palsu yang dalam, memberi label penghitung video nyata yang dibuat oleh penelusur sebagai benar. Kredit: Universitas California San Diego

Penyebaran luas video palsu di seluruh platform media sosial telah menimbulkan kekhawatiran yang signifikan di seluruh dunia, terutama menghambat kredibilitas media digital, catat para peneliti. “Jika penyerang memiliki pengetahuan tentang sistem deteksi, mereka dapat merancang input untuk menargetkan dan mendeteksi titik pintas detektor,” kata Paarth Neekhara, rekan penulis pertama kartu dan mahasiswa komputer di UC San Diego.

Para peneliti membuat contoh musuh untuk setiap wajah dalam bingkai video. Tetapi sementara operasi standar seperti kompresi video dan pengubahan ukuran biasanya menghilangkan contoh yang merugikan dari sebuah gambar, contoh-contoh ini dibuat untuk menahan proses ini. Algoritma serangan melakukan ini dengan memperkirakan pada satu set transformasi input saat model mengklasifikasikan gambar sebagai benar atau salah. Oleh karena itu, estimasi ini digunakan untuk mengubah gambar sehingga gambar yang berlawanan tetap efektif bahkan setelah kompresi dan dekompresi.

Versi wajah yang dimodifikasi termasuk dalam semua bingkai video. Proses ini diulangi untuk semua bingkai dalam video untuk membuat video deepfake. Serangan itu juga dapat diterapkan pada detektor yang beroperasi di seluruh bingkai video, bukan hanya bidikan wajah.

Tim menolak untuk merilis kodenya agar tidak digunakan oleh pihak yang bermusuhan.

Tingkat keberhasilan tinggi

Para peneliti menguji serangan mereka dalam dua skenario: satu di mana penyerang memiliki akses penuh ke model detektor, termasuk pipeline ekstraksi wajah dan arsitektur serta parameter model klasifikasi; dan satu tempat penyerang hanya dapat menginterogasi model pembelajaran mesin untuk memahami kemungkinan kerangka kerja diklasifikasikan sebagai benar atau salah.

Dalam skenario pertama, tingkat keberhasilan serangan di atas 99 persen untuk video yang tidak terkompresi. Untuk video terkompresi 84,96 persen. Skenario kedua tingkat keberhasilannya adalah 86,43 persen untuk video terkompresi dan 78,33 persen untuk video terkompresi. Ini adalah karya pertama yang menunjukkan serangan yang berhasil pada detektor Deepfake yang canggih.

“Untuk mempraktikkan detektor deepfake ini, kami berpendapat bahwa penting untuk mengevaluasi mereka terhadap lawan adaptif yang mengetahui pertahanan ini dan dengan sengaja mencoba untuk mengeksploitasi pertahanan ini,” ?? tulis para peneliti. “Kami menunjukkan bahwa metode canggih saat ini untuk deteksi deepfake dapat dengan mudah diabaikan jika lawan memiliki pengetahuan lengkap atau bahkan sebagian tentang detektor tersebut.”

Untuk meningkatkan detektor, para peneliti merekomendasikan pendekatan yang mirip dengan apa yang dikenal sebagai pelatihan adversarial: selama pelatihan, musuh adaptif terus menghasilkan pemalsuan baru yang dapat memperburuk keadaan pengembang seni saat ini; dan detektor terus meningkat untuk mendeteksi pemalsuan baru.

Deepfake yang Merugikan: Menilai Kerentanan Detektor Deepfake terhadap Contoh yang Merugikan

* Shehzeen Hussain, Malhar Jere, Farinaz Koushanfar, Departemen Teknik Listrik dan Komputer, UC San Diego

Paarth Neekhara, Julian McAuley, Departemen Ilmu dan Teknik Komputer, UC San Diego

Related articles

Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Share article

Latest articles

Skrining sinar-X mengidentifikasi obat yang menjanjikan untuk pengobatan COVID-19

Sebuah tim peneliti, termasuk ilmuwan MPSD, telah mengidentifikasi beberapa kandidat untuk melawan obat tersebut SARS-CoV-2 coronavirus menggunakan sumber cahaya sinar-X PETRA III di German...

Teori konspirasi memengaruhi perilaku kita – bahkan jika kita tidak mempercayainya!

Paling tidak karena COVID-19 pandemi, teori konspirasi lebih relevan dari sebelumnya. Mereka diberitakan dan didiskusikan di hampir semua media dan komunikasi. Tapi...

“Doodle Ringan” Nyata dalam Waktu Nyata

Para peneliti di Tokyo Metropolitan University telah merancang dan menerapkan algoritme yang disederhanakan untuk mengubah garis yang digambar secara bebas menjadi hologram pada CPU...

Teleskop Webb NASA menyertakan tabir surya seukuran lapangan tenis untuk perjalanan jutaan kilometer

Kedua wajah tabir surya James Webb Space Telescope dinaikkan secara vertikal untuk mempersiapkan pelipatan lapisan tabir surya. Kredit: NASA / Chris Gunn Insinyur bekerja...

Mineralogi Hangat Global Mengelola Pusat Perlindungan Kehidupan Batin

Tim lapangan DeMMO dari kiri ke kanan: Lily Momper, Brittany Kruger, dan Caitlin Casar mengambil sampel air yang meledak dari toilet DeMMO. Pendanaan:...

Newsletter

Subscribe to stay updated.