전이학습
중급전이학습는 AI 문맥에서 자주 등장하는 개념입니다. 이 페이지는 중급 난이도로 전이학습의 뜻과 쓰임을 빠르게 이해할 수 있도록 정리한 AI 용어사전 항목입니다.
전이학습를 처음 보는 독자도 헷갈리지 않도록 정의와 맥락를 한 페이지에 묶었습니다. 아래 설명을 먼저 읽고, 이어서 연결된 개념과 글까지 보면 이해가 훨씬 빨라집니다.
전이학습(Transfer Learning)은 한 작업이나 도메인에서 학습된 모델의 지식을 다른 관련 작업에 재활용하는 기법입니다. 대규모 데이터로 사전학습된 모델을 출발점으로 삼아, 목표 작업에 맞게 추가 학습(파인튜닝)하는 방식이 대표적입니다.
전이학습이 중요한 이유는 시간과 비용 절감에 있습니다. GPT-5.4나 Claude Sonnet 4.6 같은 모델을 처음부터 학습하려면 수천억 원의 컴퓨팅 비용이 필요합니다. 하지만 이미 학습된 기반 모델(foundation model)을 활용하면 소규모 데이터와 저렴한 비용으로 특정 도메인(법률·의료·금융)에 특화된 모델을 만들 수 있습니다. 이것이 파인튜닝(fine-tuning)의 기반 원리입니다.
실제 활용 사례로, 한국 스타트업이 의료 기록 분석 AI를 만들 때 Claude나 GPT 기반 모델을 전이학습으로 튜닝하면, 의료 데이터만으로 처음부터 학습할 때보다 훨씬 적은 데이터로 높은 성능을 얻을 수 있습니다. OpenAI의 파인튜닝 API나 Hugging Face의 PEFT 라이브러리가 대표적인 전이학습 도구입니다.
피아노를 10년 배운 사람이 기타를 배울 때 음악 이론과 리듬감을 재활용하듯, 전이학습은 한 분야에서 쌓은 AI의 지식을 다른 분야에 그대로 가져다 씁니다.
전이학습의 효과가 극적으로 나타나는 이유는 딥러닝 모델이 학습하는 특징의 계층 구조와 관련이 있습니다. 이미지 분류 모델을 예로 들면, 초기 레이어는 선이나 윤곽 같은 기초적인 시각 패턴을 학습하고, 중간 레이어는 도형이나 텍스처 같은 중간 수준의 특징을 학습하며, 마지막 레이어가 개, 고양이, 자동차 같은 구체적인 객체를 구분합니다. 기초적인 시각 패턴은 어떤 이미지 분류 작업에서도 공통적으로 필요하기 때문에, 이미 이 패턴을 학습한 모델을 재사용하면 새 모델을 처음부터 훈련하는 것보다 훨씬 효율적입니다.
언어 모델에서의 전이학습은 크게 두 단계로 이루어집니다. 첫 번째는 사전학습(pre-training) 단계로, 방대한 텍스트 데이터를 통해 언어의 일반적인 패턴, 문법, 상식, 세계 지식을 모델에 학습시킵니다. 이 단계는 매우 높은 컴퓨팅 비용이 필요합니다. 두 번째는 파인튜닝(fine-tuning) 단계로, 사전학습된 모델을 특정 작업에 맞는 데이터로 추가 학습시킵니다. 파인튜닝은 사전학습에 비해 훨씬 적은 데이터와 비용으로 가능하며, 전이학습의 실질적인 활용 포인트가 바로 여기에 있습니다.
전이학습의 방법에는 여러 변형이 있습니다. 전체 파인튜닝(full fine-tuning)은 모델의 모든 파라미터를 업데이트하는 방식으로 성능이 높지만 비용도 높습니다. 부분 파인튜닝은 마지막 몇 개 레이어만 업데이트하고 나머지는 고정합니다. LoRA(Low-Rank Adaptation)와 같은 파라미터 효율적 파인튜닝(PEFT) 기법은 매우 적은 파라미터만 추가해 저렴하게 파인튜닝할 수 있어 최근 널리 사용됩니다. 프롬프트 튜닝은 모델 파라미터는 그대로 두고 입력 앞에 학습 가능한 프롬프트를 추가하는 방식으로, 가장 비용이 낮은 전이학습 변형 중 하나입니다.
전이학습에는 부정적 전이(negative transfer)라는 함정도 있습니다. 원래 모델이 학습한 도메인과 목표 도메인이 너무 다르면, 사전학습된 지식이 오히려 성능을 방해하는 경우가 생깁니다. 예를 들어 일반 영어 텍스트로 사전학습된 모델을 법률 한국어 계약서 분석에 파인튜닝하면, 영어와 법률 특화 표현이 충돌해 의도치 않은 성능 저하가 생길 수 있습니다. 그래서 파인튜닝 대상 도메인에 맞는 사전학습 모델을 선택하는 것이 성능에 결정적인 영향을 미칩니다.
전이학습은 AI 민주화의 핵심 기술로 평가받습니다. 대형 AI 연구소가 수천억 원을 투자해 만든 기반 모델을 소규모 스타트업이나 개인 개발자가 적은 비용으로 자신의 목적에 맞게 전이학습할 수 있기 때문입니다. 덕분에 의료, 법률, 교육, 제조 등 다양한 산업에서 AI 특화 솔루션이 빠르게 등장하고 있습니다. 앞으로도 기반 모델의 품질이 높아지고 파인튜닝 도구가 발전할수록 전이학습의 활용 범위는 더 넓어질 것으로 기대됩니다.
전이학습과 RAG(Retrieval-Augmented Generation)의 차이도 자주 혼동되는 개념입니다. 전이학습은 모델의 파라미터 자체를 변경해 특정 도메인의 지식을 모델 안에 내재화하는 방식입니다. 반면 RAG는 모델 파라미터는 그대로 두고, 추론 시점에 외부 데이터베이스에서 관련 정보를 검색해 프롬프트에 포함시키는 방식입니다. 전이학습은 모델이 특정 스타일이나 형식을 체득해야 할 때 유리하고, RAG는 최신 정보나 방대한 사내 문서를 실시간으로 참조해야 할 때 유리합니다. 많은 실제 AI 서비스는 두 방법을 함께 사용해 각각의 장점을 결합합니다.
