Dewan Pengawas (Meta)
Dewan Pengawas[3] (bahasa Inggris: Oversight Board) adalah badan yang membuat keputusan moderasi konten yang menjadi preseden pada platform media sosial Facebook dan Instagram, dalam bentuk "tata kelola platform".[4] CEO Meta (saat itu Facebook) Mark Zuckerberg menyetujui pembentukan dewan tersebut pada bulan November 2018, tidak lama setelah pertemuan dengan profesor Sekolah Hukum Harvard, Noah Feldman , yang telah mengusulkan pembentukan lembaga peradilan semu di Facebook.[5] Zuckerberg pada awalnya mendeskripsikannya sebagai semacam "Mahkamah Agung", karena perannya dalam penyelesaian, negosiasi, dan mediasi, termasuk kekuasaan untuk mengesampingkan keputusan perusahaan.[6] Zuckerberg pertama kali mengumumkan ide tersebut pada November 2018, dan, setelah periode konsultasi publik, 20 anggota pendiri dewan diumumkan pada Mei 2020. Dewan ini secara resmi mulai bekerja pada 22 Oktober 2020,[7] dan mengeluarkan lima keputusan pertamanya pada 28 Januari 2021, dengan empat dari lima keputusan tersebut membatalkan tindakan Facebook sehubungan dengan hal-hal yang diajukan banding.[8] Dewan ini telah menjadi subyek spekulasi dan liputan media yang substansial sejak pengumumannya, dan tetap demikian setelah keputusan Facebook untuk menangguhkan Donald Trump setelah serangan Gedung Kongres Amerika Serikat tahun 2021.[9] PendirianPada bulan November 2018, setelah bertemu dengan profesor Sekolah Hukum Harvard, Noah Feldman, seorang yang telah mengusulkan pembentukan peradilan semu di Facebook untuk mengawasi moderasi konten, dan CEO Mark Zuckerberg menyetujui pembentukan dewan tersebut.[10][8][11] Beberapa tujuan dari dewan tersebut adalah untuk meningkatkan keadilan dalam proses banding, memberikan pengawasan dan pertanggungjawaban dari sumber eksternal, serta meningkatkan transparansi.[11] Dewan tersebut mengambil pemodelan dari sistem peradilan federal di Amerika Serikat, dimana Dewan Pengawas memberikan nilai prioritas pada keputusan-keputusan dewan sebelumnya.[12] Antara akhir 2017 dan awal 2018, Facebook telah mempekerjakan Brent C. Harris, yang sebelumnya bekerja di National Commission on the BP Deepwater Horizon Oil Spill and Offshore Drilling, sebagai penasihat organisasi nirlaba, untuk menjadi Direktur Urusan Global perusahaan.[13][5][14] Harris memimpin dalam upaya pembentukan dewan tersebut, dan melapor kepada Nick Clegg (dia sebelumnya merupakan Wakil Perdana Menteri Britania Raya), dengan melapor langsung kepada Zuckerberg.[15] Harris juga memuji keterlibatan Clegg, dengan mengatakan bahwa "Dewan Pengawas tidak akan bergerak tanpa adanya sponsor dari Nick", dan menambahkan bahwa "Hal ini cukup terhenti di dalam perusahaan sampai Nick benar-benar mengambil alih dan berkata, 'Ini adalah sesuatu yang seharusnya ada di dunia, dan kita harus mencari cara untuk membangunnya".[16] Pada bulan Januari 2019, Facebook menerima draf piagam untuk dewan tersebut[17] dan memulai periode konsultasi publik dan lokakarya dengan para ahli, institusi, dan orang-orang di seluruh dunia.[18][19] Pada bulan Juni 2019, Facebook merilis laporan setebal 250 halaman yang meringkas temuan-temuannya dan mengumumkan bahwa mereka sedang dalam proses mencari orang-orang yang akan menjadi anggota dewan yang beranggotakan 40 orang (dewan ini pada akhirnya hanya beranggotakan 20 orang).[20] Pada bulan Januari 2020, mereka menunjuk pakar hak asasi manusia asal Britania Raya dan mantan Direktur Eksekutif Article 19, Thomas Hughes, sebagai Direktur Administrasi Dewan Pengawas.[21] Mereka juga mengatakan bahwa para anggota dewan akan ditunjuk "dalam beberapa bulan mendatang".[22] AktivitasPada tanggal 6 Mei 2020, Facebook mengumumkan 20 anggota yang akan membentuk Dewan Pengawas.[23] Wakil Presiden Urusan Global dan Komunikasi Facebook, Nick Clegg, menggambarkan bahwa kelompok ini memiliki "berbagai macam pandangan dan pengalaman" dan secara kolektif tinggal di "lebih dari 27 negara", dan berbicara dalam setidaknya 29 bahasa,[24] namun seperempat dari kelompok tersebut dan dua dari empat ketua bersama berasal dari Amerika Serikat, sehingga beberapa pakar kebebasan berbicara dan tata kelola internet merasa prihatin—mengutip pada keputusan atau banding yang paling sulit berasal dari Amerika Serikat—dengan hal ini.[23] Pada bulan Juli 2020, diumumkan bahwa dewan tersebut tidak akan mulai bekerja sampai "akhir tahun ini."[25] Dewan tersebut mulai menerima kasus pada tanggal 22 Oktober 2020.[7] Para anggota dewan tersebut telah menyatakan bahwa diperlukan waktu beberapa tahun agar dampak penuh dari dewan tersebut dan keputusan-keputusannya dapat dimengerti.[8][26] Keputusan dan tindakan paling awalPada tanggal 28 Januari 2021, dewan mengambil keputusan atas lima moderasi keputusan yang dibuat oleh Facebook, yang mana empat di antaranya ditolak dan satu keputusan diterima.[27][8][28] Semua dari 4 keputusan tersebut diambil dengan suara bulat, kecuali satu keputusan yang dipertahankan.[9] Setiap keputusan diputuskan dengan suara mayoritas dari panel yang beranggotakan lima orang, termasuk setidaknya satu orang dari wilayah tempat postingan yang dimoderasi tersebut berasal.[8] Keputusan fotografi balita Suriah di MyanmarPada Oktober 2020, seorang pengguna Facebook di Myanmar mengunggah sebuah foto yang diambil oleh jurnalis foto Turki, Nilüfer Demir, tentang jenazah balita Kurdi Suriah, yang bernama Alan Kurdi, disertai dengan teks dalam bahasa Burma yang menyatakan bahwa "ada yang salah dengan Muslim (atau pria Muslim) secara psikologis atau pola pikir mereka."[29] Teks tersebut lebih lanjut membandingkan serangan teroris di Prancis sebagai tanggapan atas penggambaran Muhammad dengan sikap diam yang ditegaskan oleh umat Islam dalam menanggapi genosida Uighur di Tiongkok,[8][29] dan pengunggah menegaskan bahwa perilaku ini telah menyebabkan hilangnya simpati terhadap mereka yang seperti anak kecil dalam foto tersebut.[29] Dalam meninjau keputusan Facebook untuk menghapus unggahan tersebut, dewan tersebut meminta untuk menerjemahkan ulang unggahan tersebut,[8] dan mencatat bahwa unggahan tersebut dapat dibaca sebagai sebuah penghinaan yang ditujukan kepada umat Islam, tetapi juga dapat dibaca sebagai komentar atas ketidakkonsistenan reaksi yang dirasakan oleh umat Islam terhadap peristiwa yang terjadi di Prancis dan Tiongkok.[8][29] Keputusan fotografi gereja-gereja di AzerbaijanSebuah unggahan yang menunjukkan gereja-gereja di Baku, Azerbaijan diberi keterangan dalam bahasa Rusia yang "menegaskan bahwa orang Armenia memiliki hubungan historis dengan Baku yang tidak dimiliki oleh orang Azerbaijan", yang merujuk pada orang Azerbaijan dengan julukan etnis tazik. Dewan menemukan bahwa tulisan tersebut berbahaya bagi keamanan dan martabat warga Azerbaijan, dan oleh karena itu, dewan memutuskan untuk menghapusnya.[8] Keputusan fotografi kanker payudaraPada bulan Oktober 2020, seorang wanita Brasil mengunggah serangkaian gambar di anak perusahaan Facebook, yaitu Instagram, yang menampilkan payudara yang tidak tertutup dan putingnya terlihat, sebagai bagian dari kampanye internasional untuk meningkatkan kesadaran akan kanker payudara.[30][29] Foto-foto tersebut dinyatakan menunjukkan gejala kanker payudara, dan menunjukkan hal ini dalam teks bahasa Portugis, sehingga sistem peninjauan otomatis situs web tersebut gagal memahaminya.[8] Gambar-gambar tersebut awalnya dihapus dan kemudian dipulihkan kembali.[8][29] Facebook meminta agar tinjauan tersebut dibatalkan karena dianggap tidak relevan, tetapi dewan memilih untuk tetap meninjau tindakan tersebut, dan menemukan bahwa pentingnya masalah ini membuatnya lebih bermanfaat bagi dewan untuk memberikan keputusan atas pertanyaan yang mendasarinya.[8] Dewan lebih lanjut menyatakan bahwa penghapusan postingan tersebut tidak tepat, karena berdampak pada hak asasi perempuan, dan merekomendasikan perbaikan pada proses pengambilan keputusan untuk penghapusan postingan tersebut.[8] Secara khusus, dewan merekomendasikan agar para pengguna diberitahu tentang penggunaan mekanisme peninjauan konten otomatis, bahwa standar komunitas Instagram direvisi untuk secara tegas mengizinkan gambar dengan puting perempuan dalam postingan kesadaran kanker payudara, dan bahwa Facebook harus mengklarifikasi bahwa standar komunitasnya lebih diutamakan daripada standar Instagram.[30] Keputusan misatribusi GoebbelsPada bulan Oktober 2020, seorang pengguna Facebook mengunggah sebuah kutipan yang salah diatribusikan kepada propagandis Nazi, Joseph Goebbels, yang menyatakan bahwa ajakan kepada emosi dan naluri lebih penting daripada ajakan kepada kebenaran.[8] Postingan tersebut tidak mengandung gambar atau simbol. Facebook menghapus unggahan tersebut di bawah kebijakannya yang melarang promosi individu dan organisasi berbahaya, termasuk Goebbels. Pengguna akun tersebut mengajukan banding, menyatakan bahwa postingan tersebut dimaksudkan sebagai komentar terhadap Donald Trump. Dewan menemukan bahwa bukti-bukti mendukung pernyataan ini dan menyatakan bahwa unggahan tersebut tidak mengindikasikan dukungan terhadap Goebbels, dan memerintahkan agar unggahan tersebut dipulihkan, dengan rekomendasi bahwa Facebook harus mengindikasikan kepada pengguna yang memposting tentang orang-orang seperti itu bahwa "pengguna tersebut harus memperjelas bahwa mereka tidak memuji atau mendukung mereka."[8] Referensi
Pranala luar |