Alat Spotting Deepfake Baru Terbukti 94% Efektif – Inilah Rahasia Sukses

Pertanyaan: Manakah dari orang-orang ini yang palsu? Jawaban: Semuanya. Kredit: www.thispersondoesnotexist.com dan Universitas Buffalo

Universitas Buffalo Alat bercak deepfake terbukti 94% efektif dengan gambar seperti gambar, menurut penelitian.

Ilmuwan komputer di University at Buffalo telah mengembangkan alat yang secara otomatis mengidentifikasi foto dalam dengan menganalisis pantulan cahaya di mata.

Instrumen tersebut 94% efektif dengan foto seperti gambar dalam eksperimen yang dijelaskan dalam artikel yang diterima di Konferensi Internasional Akustik, Parlemen, dan Transformasi Sinyal IEEE yang akan diadakan pada bulan Juni di Toronto, Kanada.

“Kornea hampir seperti belahan sempurna dan sangat reflektif,” kata penulis utama makalah, Siwei Lyu, PhD, Profesor Inovasi Kerajaan SUNY di Departemen Ilmu dan Teknik Komputer. “Jadi, apa pun yang masuk ke mata dengan cahaya yang dipancarkan dari sumber ini akan memiliki gambar di kornea.

“Kedua mata pasti memiliki pola reflektif yang sangat mirip karena mereka melihat hal yang sama. Ini adalah sesuatu yang biasanya tidak kita mengerti ketika kita melihat wajah,” kata Lyu, ahli forensik multimedia dan digital yang bersaksi di depan Kongres.

Makalah, “Mengekspos Wajah yang Dihasilkan GAN Menggunakan Sorotan Khusus Kornea yang Tidak Konsisten,” tersedia di repositori akses terbuka arXiv.

Rekan penulis adalah Shu Hu, mahasiswa doktoral tahun ketiga bidang ilmu komputer dan asisten peneliti di Lab Forensik Media UB, dan Yuezun Li, PhD, mantan ilmuwan penelitian di UB yang kini menjadi pengajar di Universitas Oseanik UB. Pusat Kecerdasan Buatan China.

Alat itu membuat kertas, mengamati perbedaan kecil di mata

Saat kita melihat sesuatu, gambaran dari apa yang kita lihat tercermin di mata kita. Dalam foto atau video asli, pantulan pada mata biasanya tampak sama bentuk dan warnanya.

Namun, sebagian besar gambar yang dihasilkan oleh kecerdasan buatan – termasuk gambar dari jaringan generasi berikutnya (GAN) – gagal melakukannya secara akurat atau konsisten, mungkin karena beberapa foto digabungkan untuk menghasilkan gambar tersebut.

Alat Lyu memanfaatkan kekurangan ini dengan memperhatikan penyimpangan kecil dalam cahaya yang dipantulkan di mata dari gambar dalam.

Untuk melakukan eksperimen, tim peneliti memperoleh gambar nyata dari Flickr Faces-HQ, serta gambar palsu dari www.thispersondoesnotexist.com, sebuah gudang dari wajah-wajah yang dibuat oleh AI yang terlihat realistis tetapi sebenarnya palsu. Semua gambar adalah potret (orang sungguhan dan orang palsu melihat langsung ke kamera dengan pencahayaan yang baik) dan 1.024 x 1.024 piksel.

Alat tersebut bekerja dengan memetakan setiap wajah. Kemudian periksa matanya, diikuti oleh bola mata dan terakhir cahaya yang dipantulkan di setiap bola mata. Ini membandingkan dalam detail yang luar biasa perbedaan potensial dalam bentuk, intensitas cahaya dan karakteristik lain dari cahaya yang dipantulkan.

‘Deepfake-o-meter’, dan berkomitmen untuk memerangi pemalsuan

Meski menjanjikan, teknik Lyu memiliki keterbatasan.

Pertama, Anda membutuhkan sumber cahaya yang dipantulkan. Selain itu, pantulan cahaya yang berbeda dari mata dapat diperbaiki selama modifikasi gambar. Selain itu, teknik ini hanya melihat piksel individual yang dipantulkan di mata – bukan bentuk mata, bentuk di mata, atau sifat dari apa yang dipantulkan di mata.

Terakhir, teknik ini membandingkan pantulan di kedua mata. Jika subjek kehilangan satu matanya, atau matanya tidak terlihat, tekniknya gagal.

Lyu, yang telah mempelajari proyek pembelajaran mesin dan visi komputer selama lebih dari 20 tahun, sebelumnya telah menunjukkan bahwa video deepfake cenderung memiliki kecepatan flash yang tidak koheren atau tidak ada untuk subjek video.

Selain memberikan kesaksian di depan Kongres, dia membantu Facebook pada tahun 2020 dengan tantangan deteksi deepfake global, dan membantu menciptakan “Deepfake-o-meter,” sumber daya online untuk membantu orang kebanyakan menguji untuk melihat apakah video yang mereka tonton, di faktanya, deepfake.

Dia mengatakan identifikasi pemalsuan yang mendalam menjadi semakin penting, terutama mengingat dunia hyperparty yang penuh dengan ketegangan rasial dan gender serta bahaya informasi yang salah – terutama kekerasan.

“Sayangnya, sebagian besar jenis video palsu ini dibuat untuk tujuan pornografi, dan itu (menyebabkan) banyak … kerusakan psikologis pada korban,” kata Lyu. “Ada juga potensi dampak politik, video palsu yang menunjukkan politisi mengatakan sesuatu atau melakukan sesuatu yang seharusnya tidak mereka lakukan. Itu buruk.”

Related articles

Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Share article

Latest articles

Skrining sinar-X mengidentifikasi obat yang menjanjikan untuk pengobatan COVID-19

Sebuah tim peneliti, termasuk ilmuwan MPSD, telah mengidentifikasi beberapa kandidat untuk melawan obat tersebut SARS-CoV-2 coronavirus menggunakan sumber cahaya sinar-X PETRA III di German...

Teori konspirasi memengaruhi perilaku kita – bahkan jika kita tidak mempercayainya!

Paling tidak karena COVID-19 pandemi, teori konspirasi lebih relevan dari sebelumnya. Mereka diberitakan dan didiskusikan di hampir semua media dan komunikasi. Tapi...

Eksplorasi pertama arus laut di bawah “Doomsday Glacier” memicu kekhawatiran

Untuk pertama kalinya, para peneliti dapat memperoleh data di bawah Gletser Thwaites, yang juga dikenal sebagai "Gletser Hari Kiamat". Mereka menemukan bahwa pasokan...

“Doodle Ringan” Nyata dalam Waktu Nyata

Para peneliti di Tokyo Metropolitan University telah merancang dan menerapkan algoritme yang disederhanakan untuk mengubah garis yang digambar secara bebas menjadi hologram pada CPU...

Teleskop Webb NASA menyertakan tabir surya seukuran lapangan tenis untuk perjalanan jutaan kilometer

Kedua wajah tabir surya James Webb Space Telescope dinaikkan secara vertikal untuk mempersiapkan pelipatan lapisan tabir surya. Kredit: NASA / Chris Gunn Insinyur bekerja...

Newsletter

Subscribe to stay updated.