Small Asteroid Blog

AI 모델 개발자들이 자주 사용하는 용어나 개념 정리 본문

AI

AI 모델 개발자들이 자주 사용하는 용어나 개념 정리

작은소행성☄️ 2025. 6. 6. 10:31
728x90

📌  Hugging Face란?

Hugging Face는 AI 모델 개발자들이 사용하는 대표적인 플랫폼이다.

“AI의 GitHub” 같은 느낌이라고 생각하면 된다.

기능 설명
모델 공유 오픈소스 AI 모델을 업로드하고, 다른 사람의 모델을 다운받아 쓸 수 있음
모델 실행 웹에서 바로 모델을 실행(test)해보거나, 코드로 불러와서 사용할 수 있음

 

📌  Hugging Face에서 자주 나오는 용어

용어 설명
Model 모델 학습된 AI 프로그램 (예: Qwen, Llama, GPT 등)
Dataset 데이터셋 모델을 훈련시킬 때 사용한 텍스트나 이미지 모음
Space 스페이스 모델을 실행할 수 있는 작은 웹앱 (Streamlit, Gradio로 많이 만듦)
Transformers 트랜스포머 Hugging Face가 만든 대표적인 NLP 라이브러리
Token 토큰 문장을 쪼갠 단위 (단어보다 작을 수 있음, 모델 입력 단위)
Inference 추론 학습된 모델이 실제로 답을 내는 과정 (실행)

 

📌  Hugging Face에서 이런 이름이 붙을 수 있어요

예시 이름 포함된 의미
Qwen1.5-7B-Chat Qwen 시리즈, 7B 파라미터, 대화용 튜닝됨
Llama-2-13B-GPTQ LLaMA 모델, 13B 파라미터, GPTQ라는 양자화 방식 사용
Mistral-7B-Instruct-v0.2-GGUF Mistral 모델, 7B, 지시문 튜닝됨, GGUF 포맷(경량 모델 포맷)
Baichuan2-13B-Chat-QLoRA Baichuan2 모델, 13B, Chat용 튜닝, QLoRA로 파인튜닝됨


📌  Qwen3-30B-A3B 같은 이름의 구조

이건 보통 하나의 모델 이름이고 아래처럼 구성된다.

이름 구성 의미
Qwen3 모델 이름 Alibaba에서 만든 Qwen 시리즈의 3세대
30B 파라미터 수 30B = 30 Billion (30억 개의 모델 파라미터)
A3B 구조 설정 Mixture-of-Experts 구조 중 몇 개의 전문가를 활성화했는지

 

📌 자주 나오는 모델 관련 용어

용어 설명
Parameters (파라미터) 모델이 학습한 수치들. 수가 많을수록 똑똑한 모델일 수 있음. (예: 7B, 13B, 30B 등)
Fine-tuning (파인튜닝) 기존 모델에 추가로 학습시켜서 특정 용도에 맞게 조정하는 작업
Prompt 모델에게 던지는 질문 또는 입력값 (예: “고양이에 대해 알려줘”)
Tokenizer 문장을 숫자로 바꾸는 도구 (모델은 텍스트를 숫자로만 이해함)
LoRA / QLoRA 파인튜닝 비용을 줄이기 위한 경량화 기법
Checkpoint 모델 학습 중간 저장본 (실패하더라도 이어서 학습할 수 있게 함)

 

📌  모델 구조 관련 용어

용어 설명
Transformer GPT, BERT 등 거의 모든 최신 언어 모델의 기본 구조
MoE (Mixture of Experts) 여러 전문가 중 일부만 활성화시켜 효율을 높이는 구조 (예: Qwen3-30B-A3B)
Decoder-only GPT처럼 텍스트 생성에 특화된 구조
Encoder-decoder 번역처럼 입력과 출력이 서로 다른 경우에 쓰는 구조 (BART, T5 등)

 

📌 실전형 용어

용어 설명
Quantization (quantize) 양자화 모델 크기를 줄이기 위한 기술. float32 대신 int8, int4로 숫자 표현 → 모델 용량 작아지고 실행 속도 빨라짐.
SFT (Supervised Fine-Tuning) 감독 학습 기반 파인튜닝 사람이 정답을 붙인 데이터를 기반으로 모델을 학습시키는 방식. 흔히 말하는 "1차 파인튜닝".
RLHF (Reinforcement Learning with Human Feedback) 인간 피드백 기반 강화학습 ChatGPT가 유명해진 핵심 기법. 사람이 평가한 결과를 반영해서 모델을 개선. SFT 다음 단계로 자주 씀.
LoRA (Low-Rank Adaptation) 경량 파인튜닝 기법 기존 모델을 그대로 두고, 추가로 파인튜닝할 수 있는 작은 부품만 학습 → 학습 비용 ↓, 메모리 ↓
QLoRA 양자화 + LoRA Quantized된 모델 위에 LoRA를 적용해서 GPU 메모리 사용을 최소화한 파인튜닝 방법
Checkpoint 저장 시점 학습 중간 저장본. 모델 학습이 중단되면 여기서 다시 시작할 수 있음
Inference 추론 학습된 모델을 실제로 실행해서 응답을 받는 과정 (generate, predict 같은 함수 실행)
Prompt 프롬프트 모델에 주는 입력값 (ex. “고양이 설명해줘”)
Tokenizer 토크나이저 문장을 숫자로 쪼개주는 도구. (모델은 텍스트가 아니라 숫자만 처리함)
Embedding 임베딩 텍스트를 벡터(숫자 배열)로 바꾸는 작업. 의미의 위치를 공간상에 표현
Adapter 어댑터 모델에 끼워 넣는 모듈. 기존 모델을 바꾸지 않고 기능을 추가할 수 있음 (LoRA도 일종의 adapter)

 

📌  이름으로 유추가 어려운 용어

용어 실제 의미 예시 설명
Base Model 기본 모델 (파인튜닝 전 상태) 예: Qwen3-30B
Instruction-tuned 지시문을 잘 따르도록 튜닝됨 예: “문장 요약해줘”에 대해 요약 결과를 잘 줌
Alignment 인간 가치에 맞도록 조정된 상태 부적절한 답변 방지, 유해성 필터링 등
Eval / Benchmark 평가 특정 테스트 데이터셋에서 성능을 수치로 비교함
Zero-shot / Few-shot 학습 없이 / 몇 개만 보고 수행 예: 번역을 학습 안 했는데 바로 해내는 경우 (zero-shot)

 

 

✨ 요약: 개발자들이 쓰는 용어 맥락 정리

범주 주요 용어
모델 종류 base, instruct, chat, aligned
모델 크기/형식 7B, 13B, 70B, GGUF, GPTQ
튜닝 방식 SFT, RLHF, LoRA, QLoRA
최적화 quantize, pruning, distillation
사용 과정 inference, prompt, tokenizer, embedding

 

 

 

 

728x90
반응형