Facebook - Meta Headquarters in Menlo Park

(SeaPRwire) –   Dewan Pengawas Independen Meta Platforms Inc. setuju dengan keputusan perusahaan baru-baru ini untuk tidak menghapus video yang menyesatkan dari Presiden Amerika Serikat Joe Biden, namun mengkritik kebijakannya tentang konten yang dihasilkan oleh kecerdasan buatan sebagai “tidak konsisten” dan terlalu sempit.

Dewan, yang didirikan pada tahun 2020 oleh manajemen untuk secara independen meninjau beberapa keputusan moderasi konten paling signifikan perusahaan, pada Senin mendesak Meta untuk memperbarui kebijakannya dengan cepat menjelang pemilihan umum AS 2024.

“Dewan khawatir dengan kebijakan media dimanipulasi dalam bentuk saat ini, menemukannya tidak konsisten, kurang dalam pembenaran yang meyakinkan dan terlalu fokus pada bagaimana konten telah dibuat, daripada pada kerusakan spesifik yang bertujuan mencegah, seperti mengganggu proses pemilihan,” kata organisasi itu dalam sebuah pernyataan.

Kritik dari dewan datang setelah meninjau keputusan Meta untuk tidak menghapus video dimanipulasi dari Biden, yang diedit untuk membuatnya terlihat seolah-olah dia menyentuh dada cucunya yang dewasa dengan tidak pantas. Video itu termasuk keterangan yang menyebut Biden sebagai “pedofil”.

Dewan Pengawas setuju bahwa video tersebut tidak melanggar kebijakan media dimanipulasi Meta, tetapi mengatakan kebijakan tersebut terlalu sempit dan tidak memadai. Dewan juga merekomendasikan agar Meta berhenti menghapus media terubah yang tidak melanggar kebijakan lain terhadap konten merusak, tetapi mulai memberi label dan tetap meninggalkannya.

“Kami sedang meninjau saran Dewan Pengawas dan akan merespons secara terbuka rekomendasinya dalam waktu 60 hari sesuai dengan anggaran dasar,” kata juru bicara Meta. Perusahaan tidak diwajibkan menerima rekomendasi dewan, dan terkadang mengabaikan saran mereka.

Pada Januari, aliran konten deepfake tingkat tinggi dari individu terkenal menunjukkan kepada publik dan para pembuat undang-undang kecepatan di mana konten dimanipulasi dapat muncul online dengan bantuan alat AI baru. Gambar eksplisit Taylor Swift melanda platform sosial X, sebelumnya dikenal sebagai Twitter, sementara panggilan robot palsu suara Biden dikirim kepada pemilih sebelum pemilihan primer New Hampshire, mendesak mereka untuk tidak memilih.

Meta hanya akan menghapus video palsu orang yang mengatakan sesuatu yang tidak mereka katakan. Hal itu tidak mencakup penggambaran orang melakukan sesuatu yang tidak mereka lakukan – seperti posting Biden – dan secara eksplisit hanya berlaku untuk video yang dibuat dengan alat kecerdasan buatan. Konten yang diedit tanpa menggunakan AI, seperti melenting atau membalik klip video, mungkin menyesatkan pengguna rata-rata tetapi tidak dilarang.

Dewan merekomendasikan agar Meta memperluas kebijakannya untuk mencakup media dimanipulasi yang menggambarkan tindakan yang sebenarnya tidak dilakukan seseorang dan untuk menangani audio palsu. Hal itu juga mendesak perusahaan untuk membuat jelas kerusakan apa yang bertujuan dicegah, seperti mengganggu proses pemilihan suara, dan lebih fokus pada kerusakan tersebut daripada apakah konten dibuat menggunakan alat AI atau tidak.

“Seperti yang ada sekarang, kebijakan ini tidak masuk akal,” kata Michael McConnell, ketua dewan bersama, dalam sebuah pernyataan. “Hal itu melarang video dimanipulasi yang menunjukkan orang mengatakan sesuatu yang tidak mereka katakan, tetapi tidak melarang posting yang menggambarkan individu melakukan sesuatu yang sebenarnya tidak mereka lakukan. Hanya berlaku untuk video yang dibuat melalui AI, tetapi membiarkan konten palsu lainnya.”

Meta, bersama dengan rekan seperti X dan aplikasi video TikTok milik ByteDance Ltd., akan menghadapi semakin banyak konten dimanipulasi saat teknologi AI meningkat dan pemilihan mendekat. Meta pertama kali meluncurkan kebijakannya menjelang pemilihan 2020, bagian dari upaya lebih luas perusahaan untuk menindaklanjuti misinformasi terkait pemilihan setelah kampanye AS 2016 mengungkapkan bagaimana jaringan sosial dapat dimanfaatkan.

Dalam banyak hal, situasi seperti ini adalah alasan pasti mengapa Dewan Pengawas dibentuk. Badan independen yang terdiri dari akademisi dan orang lain dengan latar belakang kebijakan publik ini didanai oleh Meta, tetapi dimaksudkan untuk berfungsi sebagai pengecek kekuasaan perusahaan atas konten. Di masa lalu, dewan telah meninjau isu-isu di Facebook dan Instagram tentang misinformasi pemilihan dan posting terkait obat.

Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.

Sektor: Top Story, Daily News

SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.