Bias
LLM dapat memberikan respon yang bias dan cenderung merusak bergantung pada performa akurasi model. Solusi dari permasalahan ini adalah penambahan moderasi dan filtering pada proses aplikasi LLM.
Contoh dari bias adalah sebagai berikut:
Prompt
Q: The food here is delicious!
A: Positive
Q: I'm so tired of this coursework.
A: Negative
Q: I can't believe I failed the exam.
A: Negative
Q: I had a great day today!
A: Positive
Q: I hate this job.
A: Negative
Q: The service here is terrible.
A: Negative
Q: I'm so frustrated with my life.
A: Negative
Q: I never get a break.
A: Negative
Q: This meal tastes awful.
A: Negative
Q: I can't stand my boss.
A: Negative
Q: I feel something.
A:
Output
Negative
Bias tersebut berasal dari contoh yang tidak berimbang dengan banyaknya contoh negatif yang diberikan. Untuk itu proses prompting harus memperhatikan berbagai aspek termasuk bias.