Manipulasi Deepfake Akan Semakin Sulit Diungkap

Deepfake - Putin - Trump

Sejalan dengan makin majunya teknologi (digital), manipulasi foto atau video juga makin canggih, sehingga makin sulit diungkap. Seperti apakah detektor yang tepat?

APLIKASI yang menjadikan foto statis menjadi video, yang bergerak gerak – menyanyi dan menari – merupakan awal dari deepfake – kepalsuan yang mendalam. Ke depan, manipulasi foto menjadi video makin sulit dideteksi, dan bisa merugikan orang, bagian dari kejahatan.

Zaman sekarang, sebuah foto sudah cukup untuk membuat video palsu. Itu sebenarnya mengesankan. Karena dengan inteligensia artifisial, program khusus dalam tiga menit bisa membuat foto manapun tampak hidup seperti video, dan mengontrolnya dari jarak jauh.

Video palsu bahkan ada yang bisa dibuat dalam waktu kurang dari tiga menit. Itu menunjukkan apa yang sudah bisa dicapai teknologi ini, di zaman sekarang.

Ahli teknologi media Touradj Ebrahimi dan timnya yang terdiri dari sejumlah spesialis terutama berusaha mendeteksi “deepfake” atau kepalsuan mendalam semacam ini, secara otomatis. Ini sangat penting bagi masa depan.

“Detektor deepfake tidak akan sempurna. Tapi akan bisa mengungkap kepalsuan dalam sebagian besar video palsu. Kerap itu sudah cukup,“ demikian diungkap Touradj Ebrahimi dari Multi Signal Processing Group, EPFL.

Detektor harus makin canggih

Ia menambahkan, yang penting, detektor ini harus mampu terus mengembangkan diri selangkah dengan perkembangan teknologi “deepfake.” Jadi terus-menerus membandingkan dan memperbaiki diri.

Christian Bachmann yang menulis di Deutsche Welle mengungkapkan, Deepfake juga jadi masalah bagi perekonomian. Tepatnya, mengungkap gambar palsu sekarang semakin penting. Apalagi dalam urusan seperti penipuan asuransi. Oleh sebab itu, para ahli gambar mencari jalan untuk bisa melacak tanda-tanda tertentu dalam sebuah gambar, yang bisa mengatakan dengan jelas, bahwa sebuah gambar palsu.

Piranti lunak cerdas yang bisa mengungkap kepalsuan mendapat sejumlah besar gambar dan video palsu, dan belajar untuk mengenali anomali. Begitu sebuah tanda kepalsuan terdeteksi, sebuah kotak berwarna merah menunjukkan, pada gambar itu ada yang dimanipulasi.

Ebrahimi menjelaskan juga, “Sekitar enam bulan lalu, video deepfake masih bisa dideteksi dengan mudah. Gambarnya agak terganggu, jadi bisa dilihat dengan mudah, ada yang tidak benar.“

Tapi sekarang, video-video itu sudah hampir sempurna. “Hanya dalam waktu 3 sampai 9 bulan, 99,9% orang tidak akan sadar lagi, jika mereka melihat video palsu” ditegaskan Ebrahimi.

Informasi palsu tersebar lewat media sosial

Jadi ini masa-masa kelam bagi para pengecek fakta. Di layanan pengecekan fakta Mimikama, deepfake belum jadi bagian pekerjaan sehari-hari. Tapi jika tidak ada program baru untuk mengenali video-video palsu tentu akan sulit, begitu dikatakan pakar media André Wolf.

Selanjutnya, Pengguna harus kritis

Avatar photo

About Supriyanto Martosuwito

Menjadi jurnalis di media perkotaan, sejak 1984, reporter hingga 1992, Redpel majalah/tabloid Film hingga 2002, Pemred majalah wanita Prodo, Pemred portal IndonesiaSelebriti.com. Sejak 2004, kembali ke Pos Kota grup, hingga 2020. Kini mengelola Seide.id.