Home berita Apakah AI Dapat Menggantikan Peran Manusia dalam Moderasi Konten ?

Apakah AI Dapat Menggantikan Peran Manusia dalam Moderasi Konten ?

OpenAI dan ChatGPT Dapat Dikembangkan untuk moderasi konten

by BigHarry

chatgpt untuk moderasi konten

OpenAI baru-baru ini mengumumkan bahwa mereka telah mengembangkan sebuah sistem kecerdasan buatan menggunakan ChatGPT-4 untuk membantu dalam moderasi konten di platform online.  Menurut perusahaan, sistem ini memungkinkan perubahan kebijakan yang lebih cepat dan penandaan konten yang lebih konsisten dibandingkan dengan moderasi yang dilakukan oleh manusia secara tradisional.

Dalam rilisnya, OpenAI menyatakan:

“Moderasi konten memainkan peran yang sangat penting dalam menjaga kesehatan platform digital. Sistem moderasi konten yang menggunakan GPT-4 menghasilkan iterasi kebijakan yang jauh lebih cepat, mengurangi siklus perubahan dari bulan menjadi jam.”

Langkah ini bertujuan untuk meningkatkan konsistensi dalam penandaan konten, mempercepat perubahan kebijakan, dan mengurangi ketergantungan pada moderator manusia.

Lebih dari itu, menurut mereka langkah ini juga dapat berdampak positif terhadap kestabilan mental moderator manusia, menggarisbawahi potensi AI untuk menjaga kesehatan mental manusia di dunia maya.

Tantangan dalam Moderasi Konten

OpenAI menjelaskan bahwa moderasi konten adalah pekerjaan yang menantang yang memerlukan upaya yang cermat, pemahaman nuansa konteks yang mendalam, dan adaptasi yang berkelanjutan terhadap penggunaan baru.

Secara tradisional, tugas-tugas yang membutuhkan upaya intensif ini dilakukan oleh moderator manusia. Mereka meninjau konten yang dihasilkan oleh pengguna untuk menghapus atau menyensor materi berbahaya atau tidak pantas.

Ini bisa menjadi pekerjaan yang menuntut secara mental. Menggunakan AI untuk menjalankan tugas ini berpotensi mengurangi biaya mental yang harus ditanggung oleh moderator manusia.

Bagaimana Sistem Moderasi OpenAI Bekerja

Sistem baru OpenAI dirancang untuk mendukung moderator manusia dengan memanfaatkan GPT-4 untuk menginterpretasikan kebijakan konten dan membuat penilaian moderasi.

Pakar kebijakan pertama-tama menulis pedoman konten dan memberikan contoh-contoh penandaan yang sesuai dengan kebijakan tersebut.

Kemudian, GPT-4 memberikan penandaan yang sama pada contoh-contoh tersebut tanpa melihat jawaban pemeriksa.

Dengan membandingkan penandaan dari GPT-4 dengan penandaan manusia, OpenAI dapat memperbaiki definisi kebijakan yang ambigu dan melatih AI secara berulang hingga dapat menginterpretasikan pedoman dengan konsisten.

Contoh

Dalam sebuah posting di blog, OpenAI memberikan contoh bagaimana seorang pemeriksa manusia dapat menjelaskan kebijakan ketika mereka tidak setuju dengan penandaan yang diberikan oleh GPT-4 pada konten tertentu.

Dalam contoh yang diberikan, seorang pemeriksa manusia memberi label K3 (promosi kerusakan non-kekerasan), sedangkan GPT-4 merasa bahwa itu tidak melanggar kebijakan perilaku yang dilarang.

Dapatkah GPT-4 Mengurangi Biaya Manusia dalam Moderasi Konten?

Memberi GPT-4 kesempatan menjelaskan mengapa ia memilih label yang berbeda memungkinkan pemeriksa manusia memahami di mana kebijakan masih tidak jelas. Mereka menyadari bahwa GPT-4 tidak memahami nuansa bahwa pencurian properti akan kualifikasikan sebagai promosi kerusakan non-kekerasan di bawah kebijakan K3.

Interaksi ini menyoroti bagaimana pengawasan manusia dapat lebih memantapkan sistem AI dengan menjelaskan kebijakan di area di mana pengetahuan AI masih belum lengkap.

Setelah kebijakan dipahami dengan baik, GPT-4 dapat digunakan untuk melakukan moderasi konten dalam skala besar.
Manfaat yang Ditekankan oleh OpenAI

OpenAI telah menguraikan beberapa manfaat yang menurut mereka disediakan oleh sistem moderasi yang dibantu oleh AI:

  1. Penandaan yang lebih konsisten, karena AI beradaptasi dengan cepat terhadap perubahan kebijakan
  2. Siklus umpan balik yang lebih cepat untuk meningkatkan kebijakan
  3. Mengurangi siklus pembaruan dari bulan menjadi jam
  4. Beban mental yang lebih ringan bagi moderator manusia.

Mengenai poin terakhir, OpenAI sebaiknya mempertimbangkan untuk lebih menekankan potensi manfaat kesehatan mental dari moderasi AI agar lebih banyak orang mendukung konsep ini.

Menggunakan GPT-4 untuk melakukan moderasi konten dapat membantu banyak orang dengan menghindarkan mereka dari konten yang mungkin traumatis.

Pengembangan ini mungkin dapat mengurangi kebutuhan bagi moderator manusia untuk terlibat secara langsung dengan konten yang menyinggung atau berbahaya, sehingga mengurangi beban mental mereka.

Batasan & Pertimbangan Etika

OpenAI mengakui bahwa keputusan yang diambil oleh model AI dapat mengandung bias yang tidak diinginkan, sehingga hasilnya harus dipantau dan divalidasi secara berkelanjutan. OpenAI menekankan bahwa manusia harus tetap terlibat dalam kasus moderasi yang kompleks.

Perusahaan sedang menjelajahi cara untuk meningkatkan kemampuan GPT-4 dan bertujuan untuk memanfaatkan AI untuk mengidentifikasi risiko konten yang muncul yang dapat menjadi dasar bagi kebijakan baru yang lebih rapi dan bermanfaat bagi semua orang.

Jika ini benar-benar bisa diterapkan, maka cukup banyak tugas manusia yang berkurang dan semakin mudah. Bagaimana opini Anda?

Anda bakal menyukai ini juga