반응형
250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- Python
- codepipeline
- Kafka
- SQL
- aws cicd
- Jenkins
- chartjs
- AWS CI/CD 구축하기
- PostgreSQL
- codedeploy
- IntelliJ
- COALESCE
- or some instances in your deployment group are experiencing problems.
- codebuild
- JavaScript
- VPN
- docker
- Airflow
- aws
- bootstrap
- Flux
- codedeploy error
- 도커
- chart.js
- redis
- Spring
- Spring Error
- java bigdecimal
- kubeflow
- node
Archives
- Today
- Total
Small Asteroid Blog
AI 모델 개발자들이 자주 사용하는 용어나 개념 정리 본문
728x90
📌 Hugging Face란?
Hugging Face는 AI 모델 개발자들이 사용하는 대표적인 플랫폼이다.
“AI의 GitHub” 같은 느낌이라고 생각하면 된다.
기능 | 설명 |
모델 공유 | 오픈소스 AI 모델을 업로드하고, 다른 사람의 모델을 다운받아 쓸 수 있음 |
모델 실행 | 웹에서 바로 모델을 실행(test)해보거나, 코드로 불러와서 사용할 수 있음 |
📌 Hugging Face에서 자주 나오는 용어
용어 | 뜻 | 설명 |
Model | 모델 | 학습된 AI 프로그램 (예: Qwen, Llama, GPT 등) |
Dataset | 데이터셋 | 모델을 훈련시킬 때 사용한 텍스트나 이미지 모음 |
Space | 스페이스 | 모델을 실행할 수 있는 작은 웹앱 (Streamlit, Gradio로 많이 만듦) |
Transformers | 트랜스포머 | Hugging Face가 만든 대표적인 NLP 라이브러리 |
Token | 토큰 | 문장을 쪼갠 단위 (단어보다 작을 수 있음, 모델 입력 단위) |
Inference | 추론 | 학습된 모델이 실제로 답을 내는 과정 (실행) |
📌 Hugging Face에서 이런 이름이 붙을 수 있어요
예시 이름 | 포함된 의미 |
Qwen1.5-7B-Chat | Qwen 시리즈, 7B 파라미터, 대화용 튜닝됨 |
Llama-2-13B-GPTQ | LLaMA 모델, 13B 파라미터, GPTQ라는 양자화 방식 사용 |
Mistral-7B-Instruct-v0.2-GGUF | Mistral 모델, 7B, 지시문 튜닝됨, GGUF 포맷(경량 모델 포맷) |
Baichuan2-13B-Chat-QLoRA | Baichuan2 모델, 13B, Chat용 튜닝, QLoRA로 파인튜닝됨 |
📌 Qwen3-30B-A3B 같은 이름의 구조
이건 보통 하나의 모델 이름이고 아래처럼 구성된다.
이름 | 구성 | 의미 |
Qwen3 | 모델 이름 | Alibaba에서 만든 Qwen 시리즈의 3세대 |
30B | 파라미터 수 | 30B = 30 Billion (30억 개의 모델 파라미터) |
A3B | 구조 설정 | Mixture-of-Experts 구조 중 몇 개의 전문가를 활성화했는지 |
📌 자주 나오는 모델 관련 용어
용어 | 설명 |
Parameters (파라미터) | 모델이 학습한 수치들. 수가 많을수록 똑똑한 모델일 수 있음. (예: 7B, 13B, 30B 등) |
Fine-tuning (파인튜닝) | 기존 모델에 추가로 학습시켜서 특정 용도에 맞게 조정하는 작업 |
Prompt | 모델에게 던지는 질문 또는 입력값 (예: “고양이에 대해 알려줘”) |
Tokenizer | 문장을 숫자로 바꾸는 도구 (모델은 텍스트를 숫자로만 이해함) |
LoRA / QLoRA | 파인튜닝 비용을 줄이기 위한 경량화 기법 |
Checkpoint | 모델 학습 중간 저장본 (실패하더라도 이어서 학습할 수 있게 함) |
📌 모델 구조 관련 용어
용어 | 설명 |
Transformer | GPT, BERT 등 거의 모든 최신 언어 모델의 기본 구조 |
MoE (Mixture of Experts) | 여러 전문가 중 일부만 활성화시켜 효율을 높이는 구조 (예: Qwen3-30B-A3B) |
Decoder-only | GPT처럼 텍스트 생성에 특화된 구조 |
Encoder-decoder | 번역처럼 입력과 출력이 서로 다른 경우에 쓰는 구조 (BART, T5 등) |
📌 실전형 용어
용어 | 뜻 | 설명 |
Quantization (quantize) | 양자화 | 모델 크기를 줄이기 위한 기술. float32 대신 int8, int4로 숫자 표현 → 모델 용량 작아지고 실행 속도 빨라짐. |
SFT (Supervised Fine-Tuning) | 감독 학습 기반 파인튜닝 | 사람이 정답을 붙인 데이터를 기반으로 모델을 학습시키는 방식. 흔히 말하는 "1차 파인튜닝". |
RLHF (Reinforcement Learning with Human Feedback) | 인간 피드백 기반 강화학습 | ChatGPT가 유명해진 핵심 기법. 사람이 평가한 결과를 반영해서 모델을 개선. SFT 다음 단계로 자주 씀. |
LoRA (Low-Rank Adaptation) | 경량 파인튜닝 기법 | 기존 모델을 그대로 두고, 추가로 파인튜닝할 수 있는 작은 부품만 학습 → 학습 비용 ↓, 메모리 ↓ |
QLoRA | 양자화 + LoRA | Quantized된 모델 위에 LoRA를 적용해서 GPU 메모리 사용을 최소화한 파인튜닝 방법 |
Checkpoint | 저장 시점 | 학습 중간 저장본. 모델 학습이 중단되면 여기서 다시 시작할 수 있음 |
Inference | 추론 | 학습된 모델을 실제로 실행해서 응답을 받는 과정 (generate, predict 같은 함수 실행) |
Prompt | 프롬프트 | 모델에 주는 입력값 (ex. “고양이 설명해줘”) |
Tokenizer | 토크나이저 | 문장을 숫자로 쪼개주는 도구. (모델은 텍스트가 아니라 숫자만 처리함) |
Embedding | 임베딩 | 텍스트를 벡터(숫자 배열)로 바꾸는 작업. 의미의 위치를 공간상에 표현 |
Adapter | 어댑터 | 모델에 끼워 넣는 모듈. 기존 모델을 바꾸지 않고 기능을 추가할 수 있음 (LoRA도 일종의 adapter) |
📌 이름으로 유추가 어려운 용어
용어 | 실제 의미 | 예시 설명 |
Base Model | 기본 모델 (파인튜닝 전 상태) | 예: Qwen3-30B |
Instruction-tuned | 지시문을 잘 따르도록 튜닝됨 | 예: “문장 요약해줘”에 대해 요약 결과를 잘 줌 |
Alignment | 인간 가치에 맞도록 조정된 상태 | 부적절한 답변 방지, 유해성 필터링 등 |
Eval / Benchmark | 평가 | 특정 테스트 데이터셋에서 성능을 수치로 비교함 |
Zero-shot / Few-shot | 학습 없이 / 몇 개만 보고 수행 | 예: 번역을 학습 안 했는데 바로 해내는 경우 (zero-shot) |
✨ 요약: 개발자들이 쓰는 용어 맥락 정리
범주 | 주요 용어 |
모델 종류 | base, instruct, chat, aligned |
모델 크기/형식 | 7B, 13B, 70B, GGUF, GPTQ |
튜닝 방식 | SFT, RLHF, LoRA, QLoRA |
최적화 | quantize, pruning, distillation |
사용 과정 | inference, prompt, tokenizer, embedding |
728x90
반응형
'AI' 카테고리의 다른 글
langfuse 용어 (0) | 2025.04.29 |
---|---|
[Langfuse + OpenAI] Could not parse response content as the length limit was reached (0) | 2025.04.22 |
LLM을 최적화해서 잘 활용하는 방법 (0) | 2025.04.07 |
Langfuse란 (0) | 2025.03.28 |
OpenAI Function Calls 설명 및 Python 예제 (0) | 2025.02.22 |