Edward Hu et al.
2021
LoRA
LoRA: Low-Rank Adaptation of Large Language Models
Paper ini ngebahas cara pinter buat nge-tuning model AI raksasa tanpa harus ngerombak seluruh parameternya. Dengan teknik LoRA, kita cuma perlu ngelatih matriks kecil tambahan sementara model aslinya dikunci. Hasilnya, kita bisa hemat memori GPU dan storage gede-gedean tapi performanya tetep jagoan.