Teknologi Terbaru 1 | Facebook Klaim Bisa Identifikasi 96,8 Persen Konten Terlarang - Teknologi Terbaru 1 | Technology News 2 | News Technology 2

Breaking

About Me

Senin, 27 Mei 2019

Teknologi Terbaru 1 | Facebook Klaim Bisa Identifikasi 96,8 Persen Konten Terlarang

Hasil gambar untuk Facebook Klaim Bisa Identifikasi

Jakarta, Indonesia – Facebook menyinggung teknologi kepintaran buatan, atau artificial intelligence (AI) dapat membantu meminimalisir unggahan perundungan dan pelecehan, anak, propaganda teroris global, kekerasan dan konten dengan gambar menakutkan.

AI dinamakan sebagai sumber utama dalam pelaporan bersangkutan kelompok tersebut. Secara konkrit, Facebook menonaktifkan sejumlah 1,2 miliar akun pada Q4 2018, dan 2,19 juta pada Q1 2019.

Dalam enam dari sembilan lokasi yang dilacak pada laporan ini, Facebook menyinggung perusahaannya secara proaktif mendeteksi sejumlah 96,8 persen konten bersangkutan.

Hal ini tertuang dalam Community Standards Enforcement Report terbaru, dengan versi kesatu diluncurkan pada bulan Mei tahun 2018 lalu.

Seperti ditulis dalam blog Facebook,
konten terlarang yang dilafalkan di atas masuk ke Facebook dan volume konten ini sukses dihapus.

Baca juga : Intel Klaim Prosesor Genersi Ke-9 Edit Video 4K Lebih Mudah Dan Cepat

Facebook pun menyebut telah memungut tindakan guna 96,8 persen konten itu sebelum pemakai menemukannya. Jumlah ini bertambah jika dikomparasikan dengan konten yang dideteksi dan ditangani pada Q4 2018, yakni sebesar 96,2 persen.

Untuk ujaran kebencian, Facebook sudah mengidentifikasi 65 persen dari lebih dari empat juta unggahan ujaran kebencian, dan menghapusnya dari platform miliknya masing-masing kuartal. Jumlah itu meningkat 24 persen bila dikomparasikan tahun lalu, dan 59 persen dari Q4 2018.

Facebook pun menggunakan teknologi AI guna memilah unggahan, iklan pribadi, gambar dan video yang melanggar ketentuan dan kebijakannya.

Pada Q1 2019, Facebook menyebut sudah menindak selama 900 ribu konten penjualan obat terlarang, dan 83,3 persen konten itu dideteksi oleh model AI karyanya.

Pada periode yang sama, Facebook menyinggung meninjau selama 670 ribu konten penjualan senjata api, dengan 69,9 persen konten terdeteksi sebelum moderator konten atau pemakai menemukannya.

Di samping AI dan pembelajaran mesin, algoritma lebih baik pun berkontribusi terhadap penurunan jumlah konten tidak cukup pantas guna ditemukan dan disaksikan di Facebook.

Facebook memperkirakan bahwa untuk masing-masing 10 ribu kali pemakai menyaksikan konten pada jaringannya, melulu 11 sampai 14 konten yang berisi ketelanjangan orang dewasa atau kegiatan seksual, sementara 25 konten beda berisi kekerasan.

Baca juga : Penemuan Revolusioner di Awal Tahun 2019

Menyoal terorisme, ketelanjangan anak, dan pemerasan seksual, jumlah konten berhubungan disebut merasakan penurunan signifikan.

Facebook menyinggung pada Q1 2019, untuk masing-masing 10 ribu kali pemakai menyaksikan konten di jejaring sosial, tidak cukup dari tiga tontonan berisi yang melanggar setiap kepandaian perusahaannya.

Facebook menyinggung dalam satu kuartal, Facebook menonaktifkan lebih dari satu miliar akun spam, lebih dari 700 juta akun palsu, dan puluhan juta konten berisi ketelanjangan dan kekerasan.

Facebook Terus Tingkatkan Kecerdasaan Buatan

Perlu diketahui, sejumlah waktu kemudian pasca peristiwa penembakan teroris di masjid Selandia Baru, yang disiarkan secara live di Facebook video yang beredar sudah disaksikan 4000 kali sebelum dihapus.

Mengenai video penembakan itu, Facebook menjadi sorotan. Pasalnya kecurian itu, diberitakan Facebook tidak langsung menghentikan video pada ketika terjadi aksi penembakan.

Facebook sendiri informasinya tidak bermukim diam. Seperti diberitakan BGR, untuk menangkal video serupa supaya tidak beredar di masa depan, Facebook berencana untuk menambah AI yang sesuai dengan memberikannya kekuatan pendeteksian berbasis audio.

Pasalnya, sekitar ini Facebook mengandalkan AI platform. Platform ini bisa dengan cepat mendeteksi video yang berisi perbuatan bunuh diri atau berbahaya, namun siaran penembakan tampaknya tidak terdeteksi.

Facebook gagal ialah karena komputer diajar menggunakan konten-konten yang serupa. Sementara peristiwa di Selandia Baru paling jarang terjadi.

Berdasarkan keterangan dari Guy Rosen, Facebook VP of Integrity dalam blog sah Facebook, ialah AI belum dapat membedakan video pembantaian itu dengan video-video game first-person shooter (FPS) laksana PUBG, Counter Strike, atau Call of Duty.

Lihat juga: 4 cara untuk memenuhi memori smartphone Anda, Anti Ngelag!

Sehingga guna dapat mengajar AI yang sesuai untuk mendeteksi jenis konten tertentu, platform memerlukan volume data pelatihan yang besar.

Rosen, membicarakan keberhasilan dan kelemahan perusahaan dalam menanggulangi situasi tersebut, serta rencananya untuk menangkal video seperti tersebut menyebar di jejaring sosial masa depan.

Tidak ada komentar:

Posting Komentar