Alat Spotting Deepfake Baru Terbukti 94% Efektif – Inilah Rahasia Sukses

Pertanyaan: Manakah dari orang-orang ini yang palsu? Jawaban: Semuanya. Kredit: www.thispersondoesnotexist.com dan Universitas Buffalo

Universitas Buffalo Alat bercak deepfake terbukti 94% efektif dengan gambar seperti gambar, menurut penelitian.

Ilmuwan komputer di University at Buffalo telah mengembangkan alat yang secara otomatis mengidentifikasi foto dalam dengan menganalisis pantulan cahaya di mata.

Instrumen tersebut 94% efektif dengan foto seperti gambar dalam eksperimen yang dijelaskan dalam artikel yang diterima di Konferensi Internasional Akustik, Parlemen, dan Transformasi Sinyal IEEE yang akan diadakan pada bulan Juni di Toronto, Kanada.

“Kornea hampir seperti belahan sempurna dan sangat reflektif,” kata penulis utama makalah, Siwei Lyu, PhD, Profesor Inovasi Kerajaan SUNY di Departemen Ilmu dan Teknik Komputer. “Jadi, apa pun yang masuk ke mata dengan cahaya yang dipancarkan dari sumber ini akan memiliki gambar di kornea.

“Kedua mata pasti memiliki pola reflektif yang sangat mirip karena mereka melihat hal yang sama. Ini adalah sesuatu yang biasanya tidak kita mengerti ketika kita melihat wajah,” kata Lyu, ahli forensik multimedia dan digital yang bersaksi di depan Kongres.

Makalah, “Mengekspos Wajah yang Dihasilkan GAN Menggunakan Sorotan Khusus Kornea yang Tidak Konsisten,” tersedia di repositori akses terbuka arXiv.

Rekan penulis adalah Shu Hu, mahasiswa doktoral tahun ketiga bidang ilmu komputer dan asisten peneliti di Lab Forensik Media UB, dan Yuezun Li, PhD, mantan ilmuwan penelitian di UB yang kini menjadi pengajar di Universitas Oseanik UB. Pusat Kecerdasan Buatan China.

Alat itu membuat kertas, mengamati perbedaan kecil di mata

Saat kita melihat sesuatu, gambaran dari apa yang kita lihat tercermin di mata kita. Dalam foto atau video asli, pantulan pada mata biasanya tampak sama bentuk dan warnanya.

Namun, sebagian besar gambar yang dihasilkan oleh kecerdasan buatan – termasuk gambar dari jaringan generasi berikutnya (GAN) – gagal melakukannya secara akurat atau konsisten, mungkin karena beberapa foto digabungkan untuk menghasilkan gambar tersebut.

Alat Lyu memanfaatkan kekurangan ini dengan memperhatikan penyimpangan kecil dalam cahaya yang dipantulkan di mata dari gambar dalam.

Untuk melakukan eksperimen, tim peneliti memperoleh gambar nyata dari Flickr Faces-HQ, serta gambar palsu dari www.thispersondoesnotexist.com, sebuah gudang dari wajah-wajah yang dibuat oleh AI yang terlihat realistis tetapi sebenarnya palsu. Semua gambar adalah potret (orang sungguhan dan orang palsu melihat langsung ke kamera dengan pencahayaan yang baik) dan 1.024 x 1.024 piksel.

Alat tersebut bekerja dengan memetakan setiap wajah. Kemudian periksa matanya, diikuti oleh bola mata dan terakhir cahaya yang dipantulkan di setiap bola mata. Ini membandingkan dalam detail yang luar biasa perbedaan potensial dalam bentuk, intensitas cahaya dan karakteristik lain dari cahaya yang dipantulkan.

‘Deepfake-o-meter’, dan berkomitmen untuk memerangi pemalsuan

Meski menjanjikan, teknik Lyu memiliki keterbatasan.

Pertama, Anda membutuhkan sumber cahaya yang dipantulkan. Selain itu, pantulan cahaya yang berbeda dari mata dapat diperbaiki selama modifikasi gambar. Selain itu, teknik ini hanya melihat piksel individual yang dipantulkan di mata – bukan bentuk mata, bentuk di mata, atau sifat dari apa yang dipantulkan di mata.

Terakhir, teknik ini membandingkan pantulan di kedua mata. Jika subjek kehilangan satu matanya, atau matanya tidak terlihat, tekniknya gagal.

Lyu, yang telah mempelajari proyek pembelajaran mesin dan visi komputer selama lebih dari 20 tahun, sebelumnya telah menunjukkan bahwa video deepfake cenderung memiliki kecepatan flash yang tidak koheren atau tidak ada untuk subjek video.

Selain memberikan kesaksian di depan Kongres, dia membantu Facebook pada tahun 2020 dengan tantangan deteksi deepfake global, dan membantu menciptakan “Deepfake-o-meter,” sumber daya online untuk membantu orang kebanyakan menguji untuk melihat apakah video yang mereka tonton, di faktanya, deepfake.

Dia mengatakan identifikasi pemalsuan yang mendalam menjadi semakin penting, terutama mengingat dunia hyperparty yang penuh dengan ketegangan rasial dan gender serta bahaya informasi yang salah – terutama kekerasan.

“Sayangnya, sebagian besar jenis video palsu ini dibuat untuk tujuan pornografi, dan itu (menyebabkan) banyak … kerusakan psikologis pada korban,” kata Lyu. “Ada juga potensi dampak politik, video palsu yang menunjukkan politisi mengatakan sesuatu atau melakukan sesuatu yang seharusnya tidak mereka lakukan. Itu buruk.”

Related articles

Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Share article

Latest articles

Ada lebih banyak genetika daripada DNA

Ahli biologi di Inggris dan Austria telah mengidentifikasi 71 gen baru pada tikus. Ahli biologi di Universitas Bath dan Wina telah menemukan 71 gen baru...

Untuk mencegah kelaparan, adaptasi iklim membutuhkan miliaran investasi tahunan tambahan

Investasi dalam penelitian pertanian, pengelolaan air, infrastruktur dapat mencegah pertumbuhan kelaparan yang disebabkan oleh iklim. Untuk mencegah dampak perubahan iklim pada tahun 2050, yang memaksa...

Teknologi Ultra Tipis Canggih untuk Merevolusi Penglihatan Malam – “Kami Membuat Yang Tak Terlihat Terlihat”

Dr. Rocio Camacho Morales mengatakan para peneliti membuatnya "tidak terlihat, terlihat." Kredit: Jamie Kidston, Universitas Nasional Australia Biar ringan! Film ultra-tipis suatu hari...

Maju dalam dekomposisi CO2 dengan efisiensi tinggi

ARA. 1: Metode sintesis fotokatalis tiga komponen baru. Sebuah nanotube karbon enkapsulasi molekul yodium direndam dalam larutan perak nitrat (AgNO3) berair untuk menghasilkan...

Satelit Terkemuka di Lautan – Copernicus Sentinel-6 – Hidup!

Copernicus Sentinel-6 menggunakan mode inovatif yang diselingi dengan altimeter radar frekuensi ganda Poseidon-4 (C- dan Ku-band), yang telah meningkatkan kinerja dibandingkan dengan desain altimeter...

Newsletter

Subscribe to stay updated.