作品介紹 |
現今社群媒體(e.g. Facebook、Instagram),留言要直到被停權或被刪除時才能知道違反了哪些社群言論管理規定,而社群管理者(e.g. Facebook社團管理員)也無法自動化管理留言區,讓惡意言論危害社會。故我們藉由訓練NLP模型DistilBERT,立即辨識並顯示留言是否具有有惡毒、極度惡毒、下流、恐嚇、污辱、種族歧視等攻擊性,以遏阻觀眾留下惡意評論;再結合網頁資料庫系統,使創作者能夠屏蔽特定性質的留言,也能封鎖特定不良留言紀錄的觀眾,進而改善破窗效應,而被屏蔽或停權的觀眾也能立刻知道原因。
為解決training data中類別不平衡的問題,我們使用Data Augmentation、Focal Loss及Ensemble Learning等技術。我們利用網頁與深度學習,建構出完整的系統,讓創作者可以自主管理留言區,讓留言審核機制在BERT model的幫助下公開透明。總結而言,我們訓練出支援六種類別的惡意言論辨識模型並建構完整的言論自動管理系統,具有高準確度、高泛化性與Real-time的特點,結合二者使社群中的惡意言論管理自動化,並讓留言者立即知道自己的留言是否違反言論管理規定,以降低使用者攻擊他人的慾望、減緩破窗效應,維護網路言論生態。 |