Few-shot 러닝
중급Few-shot 러닝는 AI 문맥에서 자주 등장하는 개념입니다. 이 페이지는 중급 난이도로 Few-shot 러닝의 뜻과 쓰임을 빠르게 이해할 수 있도록 정리한 AI 용어사전 항목입니다.
Few-shot 러닝를 처음 보는 독자도 헷갈리지 않도록 정의와 맥락를 한 페이지에 묶었습니다. 아래 설명을 먼저 읽고, 이어서 연결된 개념과 글까지 보면 이해가 훨씬 빨라집니다.
Few-shot 러닝(Few-shot Learning)은 AI에게 소수의 예시(보통 2~5개)를 프롬프트에 포함시켜, 해당 패턴을 따라 작업을 수행하도록 유도하는 기법입니다. 별도의 학습이나 파인튜닝 없이도, 프롬프트 안의 예시만으로 모델의 출력 형식과 스타일을 제어할 수 있습니다.
Few-shot과 Zero-shot의 차이는 예시 유무입니다. Zero-shot은 예시 없이 지시만으로 작업을 수행하고, Few-shot은 2~5개의 입력-출력 쌍을 먼저 보여줍니다. 일반적으로 Few-shot이 더 일관되고 정확한 결과를 내지만, 최신 모델들은 Zero-shot 성능도 크게 향상되어 간단한 작업에서는 차이가 줄었습니다.
실제 프롬프트에서는 '다음 예시를 참고해서 같은 형식으로 작성해주세요'와 함께 입력-출력 쌍을 나열합니다. 예를 들어 감정 분석이라면 '이 영화 정말 좋았어요 → 긍정', '서비스가 너무 느려요 → 부정'처럼 몇 가지 예시를 보여준 뒤 새로운 입력을 제시합니다.
신입 직원에게 업무를 가르칠 때 설명만 하는 것(Zero-shot)보다, 완성된 예시 문서를 2~3개 보여주면(Few-shot) 훨씬 빠르게 원하는 결과물을 만들어내는 것과 같습니다.
Few-shot 러닝이 효과적인 이유는 대형 언어 모델이 사전 학습 단계에서 이미 방대한 언어 패턴을 내재화하고 있기 때문입니다. 몇 가지 예시는 모델의 학습 데이터를 바꾸는 것이 아니라, 모델이 이미 알고 있는 능력 중 어떤 것을 꺼낼지 방향을 가리키는 역할을 합니다. OpenAI의 GPT-3 논문(2020년)에서 Few-shot이 대형 모델의 강력한 능력으로 처음 주목받았으며, 이후 프롬프트 엔지니어링의 핵심 기법으로 자리잡았습니다.
예시를 고를 때 품질이 결과에 큰 영향을 미칩니다. 좋은 Few-shot 예시의 조건은 다음과 같습니다. 첫째, 예시와 실제 입력의 형식이 일관되어야 합니다. 둘째, 예시가 실제 입력과 비슷한 도메인·난이도여야 합니다. 셋째, 출력 형식이 명확해야 합니다. 예시가 아무리 많아도 출력 형식이 모호하면 결과도 일관되지 않습니다. 일반적으로 2~5개 예시면 충분하고, 너무 많으면 컨텍스트 창(context window)을 낭비합니다.
Few-shot 러닝은 One-shot(예시 1개)과 구분됩니다. One-shot 러닝은 단 하나의 예시만 제공하는 방식으로, 모델의 맥락 이해 능력에 더 많이 의존합니다. 또한 Many-shot(수십 개 이상 예시)도 있는데, 이 경우 모델이 프롬프트에서 실질적인 패턴 학습을 수행하는 효과가 나타날 수 있습니다. 최신 모델들은 컨텍스트 창이 커져서 Many-shot도 현실적으로 적용할 수 있게 되었습니다.
Few-shot이 특히 효과적인 실무 상황은 다음과 같습니다. 특정 회사의 문서 작성 스타일을 유지해야 할 때, 정형화된 데이터 추출 작업(예: 계약서에서 날짜·금액 추출)을 할 때, 새로운 분류 기준을 신속하게 적용해야 할 때입니다. 반면 Few-shot이 효과가 낮은 상황도 있습니다. 수학 연산처럼 논리 규칙을 정확히 따라야 하는 작업은 예시 학습보다 Chain-of-Thought(CoT) 프롬프팅이나 파인튜닝이 더 효과적입니다.
Few-shot 러닝은 파인튜닝과 비교할 때 비용과 유연성에서 차이가 납니다. 파인튜닝은 학습 비용이 들고 모델 가중치를 변경하기 때문에 변경이 어렵지만, 학습된 스타일과 지식을 매번 프롬프트에 담을 필요가 없습니다. Few-shot은 추가 학습 비용이 없고 언제든 예시를 바꿀 수 있지만, 매 요청마다 예시를 포함해야 하므로 토큰 비용이 증가합니다. 요청 빈도가 매우 높거나 응답 일관성이 매우 중요한 경우에는 파인튜닝을, 그 외에는 Few-shot을 먼저 시도하는 것이 일반적인 전략입니다.
Few-shot 러닝의 한계도 알아두어야 합니다. 컨텍스트 창 길이에 제약이 있어서 예시가 너무 많아지면 실제 작업을 위한 공간이 줄어듭니다. 또한 예시 순서가 결과에 영향을 줄 수 있습니다. 연구 결과에 따르면 같은 예시라도 순서를 바꾸면 출력 품질이 달라지는 경우가 있습니다. 가장 최근에 보여준 예시가 더 큰 영향을 미치는 경향(recency bias)이 있기 때문에, 가장 전형적인 예시를 마지막에 배치하는 방법이 도움이 됩니다.
Few-shot 러닝은 프롬프트 엔지니어링에서 가장 빠르게 시도해볼 수 있는 기법입니다. 새로운 AI 기능을 개발할 때 먼저 Few-shot으로 원하는 결과가 나오는지 확인하고, 성능이 부족하면 그때 파인튜닝이나 다른 방법을 검토하는 순서가 실용적입니다. 잘 설계된 Few-shot 예시 세트는 그 자체로 팀 내 AI 활용 가이드가 될 수 있습니다.
