Pemalsuan dalamPemalsuan dalam (bahasa Inggris: deepfake) (lakuran dari "deep learning" dan "fake"[2])) adalah teknik untuk sintesis citra manusia menggunakan kecerdasan buatan. Pemalsuan dalam digunakan untuk menggabungkan dan menempatkan gambar dan video yang ada ke sumber gambar atau video menggunakan teknik pemelajaran mesin yang dikenal sebagai jaringan permusuhan generatif.[3] Karena kemampuan ini, pemalsuan dalam telah digunakan untuk membuat video porno selebriti, pornografi balas dendam, berita palsu, berita bohong, perundungan, dan penipuan finansial.[4][5][6] Ini telah memicu respons baik dari industri maupun pemerintah untuk mendeteksi dan membatasi penggunaannya.[7][8] SejarahPenelitian akademisPenelitian akademis yang terkait dengan pemalsuan dalam terletak terutama di bidang penglihatan komputer, subbidang ilmu komputer sering didasarkan pada kecerdasan buatan yang berfokus pada pemrosesan komputer dari gambar dan video digital. Proyek pertama yang cukup signifikan adalah program Video Rewrite, yang diterbitkan pada tahun 1997, yang memodifikasi rekaman video seseorang yang sedang berbicara untuk menggambarkan orang itu mengucapkan kata-kata yang terdapat dalam trek audio yang berbeda.[9] Proyek akademik kontemporer telah berfokus pada pembuatan video yang lebih realistis dan membuat teknik lebih sederhana, lebih cepat, dan lebih mudah diakses. Program "Synthesizing Obama", yang diterbitkan pada 2017, memodifikasi rekaman video mantan presiden Barack Obama untuk menggambarkan dia mengucapkan kata-kata yang terkandung dalam trek audio terpisah.[10] Proyek ini mendaftar sebagai kontribusi penelitian utama teknik fotorealistik untuk menyintesis bentuk mulut dari audio. Program Face2Face, yang diterbitkan pada tahun 2016, memodifikasi rekaman video wajah seseorang untuk menggambarkan mereka meniru ekspresi wajah orang lain secara waktu nyata.[11] PolitikPemalsuan dalam telah digunakan untuk merepresentasikan politikus terkenal di portal video atau ruang obrolan. Misalnya, wajah Presiden Argentina Mauricio Macri digantikan oleh wajah Adolf Hitler, dan wajah Angela Merkel digantikan dengan wajah Donald Trump.[12][13] Pada bulan April 2018, Jordan Peele dan Jonah Peretti menciptakan pemalsuan dalam menggunakan wajah Barack Obama sebagai pengumuman layanan masyarakat tentang bahaya pemalsuan dalam.[14] Pada Januari 2019, afiliasi televisi Fox, KCPQ, menyiarkan pemalsuan dalam Trump selama pidato Oval Office-nya, mengejek penampilan dan warna kulitnya.[15] Pada bulan Mei 2019, pembicara Dewan Perwakilan Rakyat Amerika Serikat Nancy Pelosi menjadi subjek dari dua video viral, salah satunya memiliki kecepatan melambat hingga 75 persen,[16] dan yang lainnya menyunting bagian-bagian pidatonya pada konferensi pers. Untuk segmen Fox News, Lou Dobbs Tonight, yang keduanya dimaksudkan untuk membuat Pelosi tampak seolah-olah sedang mengutarakan pidatonya. Presiden Donald Trump membagikan video terakhir di Twitter, dengan judul video "PELOSI STAMMERS THROUGH NEWS CONFERENCE".[17] Video-video ini disebut sebagai pemalsuan dalam oleh banyak saluran berita utama, yang membuat pemalsuan dalam menjadi perhatian Komite Intelijen Dalam Negeri Amerika Serikat. Namun, ketua komite tersebut, Adam Schiff, mengklarifikasi dalam sebuah wawancara dengan CNN bahwa video yang melambat itu sebenarnya bukan suatu kesalahan besar, sebaliknya menyebutnya sebagai video "palsu murahan" dan menggambarkannya sebagai video yang "sangat mudah dibuat, sangat sederhana untuk dibuat, konten asli baru saja dirawat".[18] Perangkat lunak pemalsuan dalamPerangkat lunak ini menggunakan AI-Framework TensorFlow dari Google, yang antara lain sudah digunakan untuk program DeepDream. Pesohor adalah subjek utama dari video palsu tersebut, tetapi orang-orang lain juga muncul.[19][20][21] Pada Agustus 2018, para peneliti di University of California, Berkeley menerbitkan sebuah makalah yang memperkenalkan aplikasi tarian palsu yang dapat menciptakan kesan kemampuan menari ahli menggunakan AI.[22][23] Ada juga alternatif sumber terbuka untuk program FakeApp asli, seperti DeepFaceLab,[24] FaceSwap (saat ini di-host di GitHub)[25] dan myFakeApp (saat ini di-host di Bitbucket).[26][27] Rujukan
|