LLM
다양한 LLM에 대한 자료를 수집합니다.
Ⅰ. Reference
다양한 LLM 관련 레퍼런스를 소개합니다.
모델학습시 GPU 사용량 계산하는 사이트
Open Ai : Transformer Debugger
Langchain Visualizer
RingAttention
Awesome LLM Tabular
Awesome LLM
Awesome Korean LLM
MiniGPT-4 (opensource)
transformer library tutorial
Awesome Korean speech recognition
Open Korean instructions
Practical MLOps
Embedding (ratsgo 한국어 임베딩 도서 코드)
Ⅱ. LLM Training
LLM 학습에 대한 레퍼런스를 소개합니다.
WhatsApp : Finetune a LLM to speak like you based on your WhatsApp Conversations
KB-ALBERT : KB국민은행에서 제공하는 경제/금융 도메인에 특화된 한국어 ALBERT 언어모델
딥러닝 파이토치 교과서 - 입문부터 파인튜닝까지 wikidocs
전이학습 기반 NLP
자연어처리 : 토큰화
딥러닝을 위한 자연어 처리 입문
SentencePiece를 이용한 효과적인 한국어 토크나이저 만들기 (예제)
언어모델의 말솜씨? NEFTune 한 스푼으로 업그레이드 (예제)
Ⅲ. Methods
다양한 학습 방법론에 대한 레퍼런스를 소개합니다. (Pre-Training / Fine-Tuning)
RLHF (Human Feedback)
TransformersData Augementation
Domain Adaptation : Generative Pseudo Labeling(GPL)
X Algorithm
Ⅳ. Quantizations
LLM 경량화에 대한 레퍼런스를 소개합니다.
PEFT
LoRA
QLoRA
Ⅴ. Alignments
LLM Alignment에 대한 레퍼런스를 소개합니다.
Offline-DPO
OpenAi Alignment handbook
LoRA Instruct
Ⅵ. Etc
FlashAttention : Fast and memory-efficient exact attention
Speculative Decoding : Fast Inference from Transformers via Speculative Decoding
Last updated