본문 바로가기
반응형

머신러닝7

LLM의 기본 원리: ‘다음에 올 단어(토큰) 예측’은 어떻게 작동할까? LLM의 기본 원리: ‘다음에 올 단어(토큰) 예측’은 어떻게 작동할까?핵심 한 문장대규모 언어 모델(LLM)은 “입력된 문맥을 보고 다음에 올 토큰(token)의 확률분포를 계산한 뒤, 그 분포에서 토큰을 선택해 문장을 이어 쓰는” 거대한 수학적 함수입니다. I. LLM은 ‘다음 토큰 확률분포’를 출력하는 함수많은 사람들이 LLM을 “다음 단어를 맞히는 AI”로 이해합니다. 방향은 맞지만, 더 정확히 말하면 LLM은 다음 ‘단어(word)’가 아니라 다음 ‘토큰(token)’을 예측합니다.1. 토큰(token)이란?토큰은 문장을 쪼갠 단위입니다. 어떤 때는 단어 전체가 토큰이 되기도 하고, 어떤 때는 접두/접미 같은 조각이 토큰이 되기도 합니다. 공백이나 기호도 토큰이 될 수 있습니다. 왜 토큰을 쓰.. 2026. 2. 6.
허깅 페이스(Hugging Face)란? Model Hub부터 Transformers·Datasets·Spaces까지 한 번에 정리 허깅 페이스(Hugging Face)란? Model Hub부터 Transformers·Datasets·Spaces까지 한 번에 정리허깅 페이스는 “AI 모델의 GitHub”로 시작해, 이제는 모델 공유·학습/추론 도구·데이터셋·데모/배포까지 한 곳에서 해결하는 오픈 AI 플랫폼으로 자리 잡았습니다. 이 글에서는 허깅 페이스의 핵심 구성요소와 실전 활용 흐름을 실무 관점에서 정리합니다. I. 허깅 페이스는 무엇인가?한 줄 요약: 허깅 페이스는 AI 모델을 공유·실험·배포할 수 있게 해주는 오픈 플랫폼(생태계)입니다.Model Hub: 모델 저장소(레포) + 문서(모델 카드) + 버전 관리Transformers: LLM/비전/음성 등 다양한 모델을 간편하게 쓰는 라이브러리Datasets: 학습/평가 데이터.. 2026. 2. 4.
AI 학습(Training)과 추론(Inference) 완전 정리: 모델 개발 단계 vs 서비스 운영 단계 AI 학습(Training)과 추론(Inference) 완전 정리, 모델 개발 단계 vs 서비스 운영 단계AI 프로젝트는 크게 모델을 만드는 단계(Training)와 모델을 현장에서 쓰는 단계(Inference)로 나뉩니다. 이 글에서는 데이터 파이프라인부터 배포·모니터링·재학습까지 실무 라이프사이클 관점으로 구조를 깔끔하게 정리합니다. I. 한 문장 요약Training은 AI를 “교육시키는 단계(모델 생성)”,Inference는 AI를 “현장에서 일하게 하는 단계(서비스 운영)”입니다.II. AI 학습(Training) 단계: 모델 개발 프로세스Training은 모델의 파라미터(가중치)를 데이터로부터 학습해 “쓸 수 있는 모델”로 만드는 과정입니다. 비용과 시간이 가장 많이 들고, 실험/개선이 반복되.. 2026. 1. 31.
Decision Tree와 Random Forest 완벽 정리: 원리, 장단점, 비교, 활용법 Decision Tree와 Random Forest 완벽 정리원리, 장단점, 비교, 실무 활용까지결정트리(Decision Tree)는 직관적이고 해석이 쉬운 모델이지만 과적합에 취약합니다. 랜덤 포레스트(Random Forest)는 여러 트리를 결합(앙상블)해 안정적인 성능을 내며 실무에서 매우 널리 사용됩니다. I. Decision Tree(결정트리)란?Decision Tree는 데이터를 “질문(조건)”으로 나누며 학습하는 트리 기반 모델입니다. 루트 노드에서 시작해 내부 노드에서 조건 분기(split)를 반복하고, 최종적으로 리프 노드(leaf)에서 예측값을 출력합니다. 핵심 직관: “가장 잘 구분되는 질문을 먼저 던지고, 그 다음 질문을 이어가며 데이터를 점점 더 순수(동일 클래스 또는 유사한 값.. 2026. 1. 22.
TensorFlow란? 개념부터 학습·배포 생태계까지 한 번에 정리 TensorFlow란? 핵심 개념부터 학습·배포 생태계까지 한 번에 정리I. TensorFlow 한 줄 정의TensorFlow는 구글이 주도하는 오픈소스 머신러닝/딥러닝 프레임워크로, 데이터 준비부터 모델 학습, 평가, 그리고 서비스 배포(서버/모바일/브라우저/엣지)까지 전 과정을 하나의 생태계로 묶어 제공하는 것이 특징입니다. 핵심 요약: “모델을 만들고 끝”이 아니라, 학습 → 최적화 → 저장 → 배포까지 한 번에 이어지는 엔드투엔드(End-to-End) 경험을 제공하는 플랫폼에 가깝습니다. II. TensorFlow의 핵심 원리: 텐서·자동미분·실행 엔진A. 텐서(Tensor): 데이터의 표준 단위Tensor는 다차원 배열(스칼라, 벡터, 행렬, 고차원 텐서 포함)을 의미합니다.NumPy 배열과 .. 2026. 1. 22.
넷플릭스는 왜 같은 영화라도 포스터가 다를까? ‘포스터(아트워크) 개인화’ 원리 총정리 넷플릭스는 왜 같은 영화라도 포스터가 다를까? ‘포스터(아트워크) 개인화’ 원리 총정리 I. 결론부터: “포스터 16장”은 ‘정확한 고정값’이라기보다 ‘상징적인 숫자’넷플릭스가 한 작품당 여러 개의 대체 포스터(아트워크)를 준비하고, 사용자별로 가장 반응(클릭·시청 시작)이 좋을 이미지를 선택해 보여주는 방식을 운영하는 것은 사실입니다. 다만 “항상 16장”처럼 모든 타이틀에 동일하게 적용되는 고정 숫자라고 단정하긴 어렵습니다. 넷플릭스는 작품을 소개할 때 “한 자리(슬롯)에는 결국 단 하나의 이미지만 보여줄 수 있다”는 제약 아래, 어떤 이미지가 그 사용자에게 가장 매력적으로 느껴질지를 학습해 선택합니다. (넷플릭스 공식 기술 글에서 이 문제를 핵심 챌린지로 설명합니다.) II. 넷플릭스는 ‘포스터’.. 2026. 1. 7.
반응형