LLM2017
Attention Is All You Need
Vaswani et al.
Paper revolusioner yang memperkenalkan arsitektur Transformer, fondasi dari semua model bahasa modern seperti GPT dan BERT.
Riset AI terkini dengan penjelasan mudah dipahami
Vaswani et al.
Paper revolusioner yang memperkenalkan arsitektur Transformer, fondasi dari semua model bahasa modern seperti GPT dan BERT.
Hu et al.
Teknik fine-tuning yang efisien dengan menambahkan low-rank matrices ke pretrained weights, mengurangi parameter trainable hingga 10.000x.
Yao et al.
Framework yang menggabungkan reasoning traces dengan action sequences, memungkinkan LLM untuk berinteraksi dengan tools dan environment.
Lewis et al.
Arsitektur yang menggabungkan retrieval dengan generation, memungkinkan model untuk mengakses knowledge base eksternal.