Ilmuwan Komputer Membuat Video Palsu Yang Membodohi Detektor Deepfake Canggih

Sistem yang dirancang untuk mendeteksi pemalsuan yang dalam – video yang memanipulasi rekaman kehidupan nyata menggunakan kecerdasan buatan – dapat ditipu, ilmuwan komputer menunjukkan untuk pertama kalinya pada konferensi WACV 2021 yang diadakan secara online pada tanggal 5 hingga 9 Januari 2021.

Para peneliti telah menunjukkan bahwa detektor dapat dikalahkan dengan memasukkan input ke dalam contoh yang berlawanan di setiap bingkai video. Contoh yang merugikan adalah input yang sedikit dimanipulasi yang menyebabkan sistem kecerdasan buatan seperti model pembelajaran mesin membuat kesalahan. Selain itu, tim menunjukkan bahwa serangan tersebut masih berfungsi setelah mengompresi video.

“Pekerjaan kami menunjukkan bahwa serangan terhadap detektor deepfake bisa menjadi ancaman dunia nyata,” kata Shehzeen Hussain, insinyur komputer di UC San Diego Ph.D. siswa dan rekan penulis pertama di kartu WACV. “Yang lebih mengkhawatirkan, kami menunjukkan bahwa dimungkinkan untuk membuat musuh palsu yang tangguh bahkan ketika musuh mungkin tidak mengetahui cara kerja internal model pembelajaran mesin yang digunakan oleh detektor.”

Dalam deepfake, wajah subjek dimodifikasi untuk membuat film peristiwa yang realistis dan meyakinkan yang belum pernah terjadi. Akibatnya, detektor deepfake yang khas fokus pada wajah dalam video: pelacakan pertama, lalu transmisi data wajah yang dipotong ke jaringan saraf yang menentukan apakah itu benar atau salah. Misalnya, pijar mata tidak direproduksi dengan baik dalam pemalsuan yang dalam, jadi detektor memfokuskan pada gerakan mata sebagai cara untuk membuat penentuan ini. Detektor Deepfake tingkat lanjut mengandalkan model pembelajaran mesin untuk mengidentifikasi video palsu.


XceptionNet, detektor palsu yang dalam, memberi label penghitung video nyata yang dibuat oleh penelusur sebagai benar. Kredit: Universitas California San Diego

Penyebaran luas video palsu di seluruh platform media sosial telah menimbulkan kekhawatiran yang signifikan di seluruh dunia, terutama menghambat kredibilitas media digital, catat para peneliti. “Jika penyerang memiliki pengetahuan tentang sistem deteksi, mereka dapat merancang input untuk menargetkan dan mendeteksi titik pintas detektor,” kata Paarth Neekhara, rekan penulis pertama kartu dan mahasiswa komputer di UC San Diego.

Para peneliti membuat contoh musuh untuk setiap wajah dalam bingkai video. Tetapi sementara operasi standar seperti kompresi video dan pengubahan ukuran biasanya menghilangkan contoh yang merugikan dari sebuah gambar, contoh-contoh ini dibuat untuk menahan proses ini. Algoritma serangan melakukan ini dengan memperkirakan pada satu set transformasi input saat model mengklasifikasikan gambar sebagai benar atau salah. Oleh karena itu, estimasi ini digunakan untuk mengubah gambar sehingga gambar yang berlawanan tetap efektif bahkan setelah kompresi dan dekompresi.

Versi wajah yang dimodifikasi termasuk dalam semua bingkai video. Proses ini diulangi untuk semua bingkai dalam video untuk membuat video deepfake. Serangan itu juga dapat diterapkan pada detektor yang beroperasi di seluruh bingkai video, bukan hanya bidikan wajah.

Tim menolak untuk merilis kodenya agar tidak digunakan oleh pihak yang bermusuhan.

Tingkat keberhasilan tinggi

Para peneliti menguji serangan mereka dalam dua skenario: satu di mana penyerang memiliki akses penuh ke model detektor, termasuk pipeline ekstraksi wajah dan arsitektur serta parameter model klasifikasi; dan satu tempat penyerang hanya dapat menginterogasi model pembelajaran mesin untuk memahami kemungkinan kerangka kerja diklasifikasikan sebagai benar atau salah.

Dalam skenario pertama, tingkat keberhasilan serangan di atas 99 persen untuk video yang tidak terkompresi. Untuk video terkompresi 84,96 persen. Skenario kedua tingkat keberhasilannya adalah 86,43 persen untuk video terkompresi dan 78,33 persen untuk video terkompresi. Ini adalah karya pertama yang menunjukkan serangan yang berhasil pada detektor Deepfake yang canggih.

“Untuk mempraktikkan detektor deepfake ini, kami berpendapat bahwa penting untuk mengevaluasi mereka terhadap lawan adaptif yang mengetahui pertahanan ini dan dengan sengaja mencoba untuk mengeksploitasi pertahanan ini,” ?? tulis para peneliti. “Kami menunjukkan bahwa metode canggih saat ini untuk deteksi deepfake dapat dengan mudah diabaikan jika lawan memiliki pengetahuan lengkap atau bahkan sebagian tentang detektor tersebut.”

Untuk meningkatkan detektor, para peneliti merekomendasikan pendekatan yang mirip dengan apa yang dikenal sebagai pelatihan adversarial: selama pelatihan, musuh adaptif terus menghasilkan pemalsuan baru yang dapat memperburuk keadaan pengembang seni saat ini; dan detektor terus meningkat untuk mendeteksi pemalsuan baru.

Deepfake yang Merugikan: Menilai Kerentanan Detektor Deepfake terhadap Contoh yang Merugikan

* Shehzeen Hussain, Malhar Jere, Farinaz Koushanfar, Departemen Teknik Listrik dan Komputer, UC San Diego

Paarth Neekhara, Julian McAuley, Departemen Ilmu dan Teknik Komputer, UC San Diego

Related articles

Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Share article

Latest articles

Diet junk food dapat meningkatkan risiko mengemudi berbahaya di antara pengemudi truk

Diet tidak sehat yang terkait dengan kelelahan yang lebih besar: Faktor kunci dalam peningkatan risiko kecelakaan, kata para peneliti. Pola makan yang tidak sehat dapat...

Fotosintesis buatan menjanjikan sumber energi yang bersih dan berkelanjutan

Manusia dapat melakukan banyak hal yang tidak dapat dilakukan oleh tumbuhan. Kita bisa berjalan, berbicara, mendengarkan, melihat dan menyentuh. Tetapi tanaman memiliki...

Es laut di pantai Arktik menipis secepat yang saya kira

Es Arktik yang menurun bisa dibilang salah satu korban terbesar perubahan iklim, dan dampaknya sangat luas, dari keadaan beruang kutub yang ikonik dan satwa...

Dinosaurus terbesar di Australia – “Titan Selatan” – baru saja memasuki buku rekor!

Kolaborasi Australia, "Titan Cooper Selatan." Penulis: Vlad Konstantinov, Scott Hoknul © Museum Sejarah Alam Eromanga Apa lapangan basket yang lebih tinggi dari b-double, dan...

Maju dengan roket SLS Moon raksasa, pertemuan dekat dengan Ganymede dan gerhana cincin api

Inti roket Space Launch System (SLS) seberat 188.000 pon telah naik ke peluncur bergerak, di antara dua pendorong roket padat. Kredit: NASA Bergerak maju...

Newsletter

Subscribe to stay updated.