Javascript must be enabled to continue!
Penerapan Large Languange Models Dalam Pembaruan Artikel Biografi Wikipedia
View through CrossRef
Wikipedia merupakan sumber informasi daring yang sangat populer di Indonesia, namun pembaruan artikelnya masih sangat bergantung pada kontribusi penyunting. Pada kategori artikel biografi, pembaruan informasi secara berkala sangat penting karena adanya perkembangan karier dan peristiwa terkini dari tokoh yang bersangkutan. Penelitian ini bertujuan untuk mengeksplorasi penerapan Large Language Models (LLM) dalam menambahkan informasi baru ke artikel biografi Wikipedia Indonesia dengan referensi dari satu artikel berita daring. Model utama yang digunakan adalah Gemma 3 yang kemudian dibandingkan dengan model baseline Phi-3-mini. Penelitian ini juga menguji efektivitas lima strategi prompting yang berbeda, yaitu simple prompt, system prompt (en), system prompt (id), one-shot, dan prompt chaining untuk mengarahkan model dalam menghasilkan keluaran yang relevan dan sesuai dengan gaya Wikipedia. Proses fine-tuning dilakukan menggunakan data berbentuk kombinasi artikel Wikipedia sebelum diperbarui, artikel berita sebagai referensi, dan teks berisi informasi baru yang relevan untuk ditambahkan ke dalam artikel Wikipedia sebagai target keluaran. Evaluasi dilakukan dengan metrik ROUGE untuk mengukur kesamaan antara hasil keluaran model dan referensi dari penyunting Wikipedia. Hasil penelitian menunjukkan bahwa fine-tuning model Gemma 4B secara signifikan meningkatkan performa, khususnya pada strategi prompt chaining dengan rata-rata skor ROUGE-1 sebesar 0.3687. Dibandingkan dengan baseline Phi-3-mini, model Gemma memberikan hasil yang lebih konsisten dan relevan. Temuan ini menunjukkan bahwa pendekatan berbasis LLM dapat menjadi solusi potensial dalam membantu proses pembaruan artikel biografi Wikipedia.
Title: Penerapan Large Languange Models Dalam Pembaruan Artikel Biografi Wikipedia
Description:
Wikipedia merupakan sumber informasi daring yang sangat populer di Indonesia, namun pembaruan artikelnya masih sangat bergantung pada kontribusi penyunting.
Pada kategori artikel biografi, pembaruan informasi secara berkala sangat penting karena adanya perkembangan karier dan peristiwa terkini dari tokoh yang bersangkutan.
Penelitian ini bertujuan untuk mengeksplorasi penerapan Large Language Models (LLM) dalam menambahkan informasi baru ke artikel biografi Wikipedia Indonesia dengan referensi dari satu artikel berita daring.
Model utama yang digunakan adalah Gemma 3 yang kemudian dibandingkan dengan model baseline Phi-3-mini.
Penelitian ini juga menguji efektivitas lima strategi prompting yang berbeda, yaitu simple prompt, system prompt (en), system prompt (id), one-shot, dan prompt chaining untuk mengarahkan model dalam menghasilkan keluaran yang relevan dan sesuai dengan gaya Wikipedia.
Proses fine-tuning dilakukan menggunakan data berbentuk kombinasi artikel Wikipedia sebelum diperbarui, artikel berita sebagai referensi, dan teks berisi informasi baru yang relevan untuk ditambahkan ke dalam artikel Wikipedia sebagai target keluaran.
Evaluasi dilakukan dengan metrik ROUGE untuk mengukur kesamaan antara hasil keluaran model dan referensi dari penyunting Wikipedia.
Hasil penelitian menunjukkan bahwa fine-tuning model Gemma 4B secara signifikan meningkatkan performa, khususnya pada strategi prompt chaining dengan rata-rata skor ROUGE-1 sebesar 0.
3687.
Dibandingkan dengan baseline Phi-3-mini, model Gemma memberikan hasil yang lebih konsisten dan relevan.
Temuan ini menunjukkan bahwa pendekatan berbasis LLM dapat menjadi solusi potensial dalam membantu proses pembaruan artikel biografi Wikipedia.
Related Results
Wikipedia: a tool to monitor seasonal diseases trends?
Wikipedia: a tool to monitor seasonal diseases trends?
ObjectiveTo explore the interest of Wikipedia as a data source to monitorseasonal diseases trends in metropolitan France.IntroductionToday, Internet, especially Wikipedia, is an im...
Exploiting Wikipedia Semantics for Computing Word Associations
Exploiting Wikipedia Semantics for Computing Word Associations
<p><b>Semantic association computation is the process of automatically quantifying the strength of a semantic connection between two textual units based on various lexi...
Wikipedia in Vascular Surgery Medical Education: Comparative Study (Preprint)
Wikipedia in Vascular Surgery Medical Education: Comparative Study (Preprint)
BACKGROUND
Medical students commonly refer to Wikipedia as their preferred online resource for medical information. The quality and readability of articles ...
COVID-19 research in Wikipedia
COVID-19 research in Wikipedia
Wikipedia is one of the main sources of free knowledge on the Web. During the first few months of the pandemic, over 5,200 new Wikipedia pages on COVID-19 were created, accumulatin...
COVID-19 research in Wikipedia
COVID-19 research in Wikipedia
AbstractWikipedia is one of the main sources of free knowledge on the Web. During the first few months of the pandemic, over 5,200 new Wikipedia pages on COVID-19 have been created...
Wikipedia: a complex social machine by Ramine Tinati and Markus Luczak-Roesch with Martin Vesely as coordinator
Wikipedia: a complex social machine by Ramine Tinati and Markus Luczak-Roesch with Martin Vesely as coordinator
Wikipedia represents a successful peer-produced knowledge-resource constructed via the endeav- ours of millions of volunteers. We examine the activity of Wikipedia by analysing Wik...
[JF] Pengantar Redaksi Vol. 32 No. 1 Februari 2022
[JF] Pengantar Redaksi Vol. 32 No. 1 Februari 2022
Pembaca yang Budiman,Dewan Redaksi Jurnal Filsafat sedang melakukan langkah perubahan strategis setelah memperoleh kembali Akreditasi Nasional Peringkat Sinta 2, yakni melakukan pe...
How to Automate Wikipedia
How to Automate Wikipedia
Nowadays, Wikipedia is so ubiquitous that when you use the Web, you don’t even have to look for it – Wikipedia comes to you. It is well known that Google search is deliberately adj...

