ICSEJOURNALICSEJOURNAL

Journal of Computer Science and Engineering (JCSE)Journal of Computer Science and Engineering (JCSE)

Penelitian ini menanggapi kebutuhan mendesak akan sistem ringkasan dialog Bahasa Indonesia yang efisien dalam konteks kerja jarak jauh dengan mengadaptasi model multibahasa mBART-large-50. Dataset DialogSum diterjemahkan ke Bahasa Indonesia menggunakan Opus‑MT, dan dua pendekatan fine‑tuning, yaitu full fine‑tuning dan Parameter‑Efficient Fine‑Tuning (PEFT) dengan LoRA, dievaluasi. Eksperimen pada 1.500 sampel uji menunjukkan bahwa full fine‑tuning menghasilkan performa superior (ROUGE‑1: 0.3726), sementara PEFT mengurangi konsumsi energi sebesar 68,7 % dengan penurunan akurasi yang moderat (ROUGE‑1: 0.2899). Antarmuka berbasis Gradio memperlihatkan kegunaan praktis dengan memungkinkan perbandingan langsung antara model baseline, fine‑tuned, dan PEFT. Temuan kritis mencakup inkonsistensi terminologi yang disebabkan oleh terjemahan (misalnya, Hebes vs. Hebei) serta tantangan retensi konteks pada dialog panjang. Penelitian ini memberikan kerangka kerja skalabel untuk NLP bahasa sumber daya rendah serta wawasan aplikatif untuk mengoptimalkan efisiensi komputasi dalam aplikasi dunia nyata.

Penelitian ini berhasil mengembangkan sistem ringkasan dialog Bahasa Indonesia yang efisien dengan memanfaatkan model mBART melalui dua pendekatan fine‑tuning, yaitu full fine‑tuning yang memberikan performa tertinggi dan Parameter‑Efficient Fine‑Tuning (PEFT) yang mengurangi konsumsi energi hingga 68,7 % dengan penurunan akurasi moderat.Analisis menunjukkan adanya kendala seperti ketidaksesuaian istilah akibat terjemahan mesin serta kehilangan konteks pada dialog panjang, serta keterbatasan penggunaan metrik ROUGE tanpa penilaian manusia.Oleh karena itu, penelitian lanjutan direkomendasikan untuk mengembangkan strategi hybrid antara PEFT dan full fine‑tuning, membangun model pra‑latih khusus Bahasa Indonesia, serta memperluas evaluasi dengan penilaian manusia, dataset dialog asli, dan teknik kompresi model.

Penelitian lanjutan dapat diarahkan pada tiga bidang utama. Pertama, mengkaji strategi hybrid yang menggabungkan efisiensi PEFT dengan keunggulan performa full fine‑tuning, sehingga dapat memperoleh model yang akurat namun hemat energi. Kedua, mengembangkan model bahasa pra‑latih khusus Bahasa Indonesia yang dilatih pada korpus lokal, untuk meningkatkan kemampuan pemahaman konteks dan terminologi budaya pada tugas ringkasan dialog. Ketiga, membangun dataset dialog Bahasa Indonesia asli yang mencakup variasi topik dan panjang percakapan, serta melakukan evaluasi manusia secara menyeluruh untuk menilai kualitas ringkasan, sambil mengeksplorasi teknik adaptif seperti penyesuaian panjang urutan dan kompresi model agar dapat diterapkan pada perangkat dengan sumber daya terbatas. Kombinasi tiga arah penelitian ini diharapkan dapat memperkuat akurasi, efisiensi, dan kegunaan praktis sistem ringkasan dialog di lingkungan kerja nyata.

Read online
File size617.79 KB
Pages11
DMCAReport

Related /

ads-block-test