E
EcoAIGuide
🤖 AI2026년 4월 28일8분 읽기

LangChain, 첫 설치부터 막히는 지점까지 솔직하게

LangChain 시작하는 법을 처음 해본 사람 입장에서 풀어봤어요. 설치부터 첫 체인 실행까지, 흔히 막히는 실수 포인트까지 실제 경험 기반으로 씁니다.

유튜브나 뉴스에서 "LangChain으로 나만의 AI 만들기" 이런 거 한 번쯤 봤을 거예요. 그런데 막상 따라 해보려고 하면 첫 줄부터 막힙니다. pip install langchain 치는 건 됐는데, 그다음에 뭘 해야 하는지 감이 안 와요. 저도 딱 그랬거든요.

이 글은 "LangChain이 뭔지는 알겠는데, 그래서 어디서부터 시작해?"라는 질문에서 출발합니다. 개념 설명보다는 실제로 손 대면서 마주치는 지점들 위주로 써볼게요.

LangChain이 왜 필요한 건지부터 짚고 가야 해요

ChatGPT API 쓰면 되는 거 아니야? 하는 생각, 당연히 드실 거예요. 단순하게 질문 하나 던지고 답 받는 거라면 그냥 API 호출로 충분합니다. 근데 현실에서 원하는 건 그게 아닌 경우가 많아요.

"내 회사 문서를 AI가 읽고 답해줬으면 좋겠다", "웹에서 정보 찾아서 요약해줬으면 좋겠다", "여러 단계를 거쳐서 작업을 처리했으면 좋겠다"처럼요. 이런 걸 하려면 AI 모델 하나만으로는 안 되고, 여러 부품을 연결해야 해요. LangChain은 그 연결 작업을 쉽게 해주는 프레임워크예요. 레고 블록처럼 갖다 붙이는 방식이라고 보면 돼요.

AI 에이전트가 챗봇이랑 어떻게 다른지 궁금하셨던 분이라면, LangChain이 바로 그 에이전트를 만들 때 쓰는 핵심 도구 중 하나라고 이해하면 연결이 자연스럽게 돼요.

시작 전에 준비물 세 가지만 챙기세요

환경 준비 단계에서 생각보다 많은 분들이 포기합니다. 처음이라면 세 가지만 확인하면 돼요.

파이썬 3.9 이상 버전, OpenAI API 키 (또는 다른 LLM 키), 그리고 가상환경. 세 번째가 제일 자주 건너뛰는 부분인데, 나중에 패키지 충돌로 고생하는 게 싫다면 처음부터 venvconda로 환경 하나 만들어두는 게 낫습니다.

python -m venv langchain-env
source langchain-env/bin/activate  # Windows는 langchain-env\Scripts\activate
pip install langchain langchain-openai openai

여기서 많이 하는 실수가 그냥 pip install langchain만 치는 거예요. 2023년 이후로 LangChain이 패키지를 쪼개놔서, OpenAI 연동하려면 langchain-openai도 따로 설치해야 해요. 이거 모르고 나중에 import 오류 보면서 한참 헤매게 됩니다.

첫 코드, 이것부터 돌려보세요

설치 됐으면 일단 가장 단순한 것부터 돌려봐야 합니다. "Hello, LangChain" 같은 거요.

from langchain_openai import ChatOpenAI
from langchain_core.messages import HumanMessage
import os

os.environ["OPENAI_API_KEY"] = "여기에-본인-키-넣기"

model = ChatOpenAI(model="gpt-4o-mini")
response = model.invoke([HumanMessage(content="안녕, 자기소개해봐")])
print(response.content)

이게 실행되면 LangChain 설치는 제대로 된 거예요. 단순해 보여도 이 코드가 돌아가는 순간, LangChain의 모델 추상화가 적용된 거예요. 나중에 GPT 대신 Claude나 로컬 모델로 바꿀 때, 모델 이름 한 줄만 바꿔도 나머지 코드는 그대로 쓸 수 있다는 게 LangChain의 핵심 장점이거든요.

그래서 체인이라는 게 뭐야

LangChain에서 "체인"은 여러 단계를 이어 붙인 파이프라인이에요. 예를 들어 "프롬프트 만들기 → 모델에 넣기 → 결과 파싱하기" 이 세 단계를 하나로 연결하는 거죠.

from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

prompt = ChatPromptTemplate.from_messages([
    ("system", "당신은 경제 용어를 쉽게 설명하는 선생님입니다."),
    ("human", "{term}을 초등학생도 이해할 수 있게 설명해주세요.")
])

model = ChatOpenAI(model="gpt-4o-mini")
parser = StrOutputParser()

chain = prompt | model | parser

result = chain.invoke({"term": "인플레이션"})
print(result)

| 파이프 기호가 체인을 연결하는 방식이에요. 리눅스 터미널 쓰는 분들한테는 익숙한 느낌일 텐데, 왼쪽 결과를 오른쪽에 넘기는 거라고 보면 돼요. 이걸 LCEL, LangChain Expression Language라고 부르는데, 2023년 이후 LangChain의 핵심 문법이에요. 예전 방식인 LLMChain으로 된 튜토리얼 보다가 갑자기 에러 뜨는 경우 있는데, 구버전 코드일 가능성이 높습니다.

여기서 사람들이 제일 많이 막히는 곳

친구 중에 개발자 아닌데 LangChain 해보겠다고 덤볐다가 "이거 그냥 사기 아니야?" 하는 사람 봤어요. 막히는 포인트가 패턴이 있더라고요.

API 키 노출 문제. 코드에 키를 하드코딩해놓고 GitHub에 올리는 경우. 꼭 .env 파일 쓰고 python-dotenv로 불러오세요. 한 번 키 유출되면 요금 폭탄 맞습니다. 실제로 주변에 있었던 일이에요.

버전 충돌. LangChain이 업데이트 속도가 워낙 빠르다 보니, 6개월 전 튜토리얼이랑 지금 패키지 구조가 달라요. from langchain.chat_models import ChatOpenAI 이런 예전 임포트 방식이 지금은 from langchain_openai import ChatOpenAI로 바뀌었어요. 에러 메시지 잘 읽으면 힌트 있으니까, 무작정 스택오버플로우 뒤지기 전에 오류 문구 먼저 보세요.

RAG 구현 욕심. 처음부터 "내 PDF 파일 읽는 AI" 만들려다가 벡터 DB, 임베딩, 청킹 같은 개념들이 쏟아지면서 멘탈이 터지는 경우. RAG가 어떤 원리로 작동하는지 개념 먼저 잡고 나서 코드로 넘어가는 게 훨씬 빨라요. 순서가 중요해요.

딱 이 순서로 하면 삽질이 줄어요

무수한 삽질 끝에 정리한 순서예요.

가상환경 만들고 기본 패키지 설치 → API 키 .env로 관리 → 모델 직접 호출 코드 돌려보기 → 프롬프트 템플릿 적용해보기 → LCEL 체인으로 연결해보기. 여기까지가 "입문 완료" 선이에요.

그다음에 메모리 추가하거나, 외부 도구 연결하거나, 에이전트로 넘어가는 건 그때 가서 필요한 거 하나씩 배우면 돼요. 처음부터 전체 그림 다 이해하고 시작하려다가 지쳐서 포기하는 패턴이 제일 흔하거든요.

한 번 돌아가면 그 다음엔 욕심이 생겨요

솔직히 처음 체인 하나 만들어서 결과 출력됐을 때, 생각보다 별거 아닌데? 싶기도 해요. 근데 거기에 외부 검색 도구 붙이고, 내 문서 연결하고, 에이전트로 만들기 시작하면 얘기가 달라져요. 조각 하나씩 붙여가는 맛이 생기거든요.

AI가 도구를 쓰는 방식이 MCP 프로토콜로 어떻게 달라지고 있는지를 보면, LangChain이 결국 어디를 향하고 있는지도 보여요. 지금 시작하는 게 늦은 게 아니라, 오히려 생태계가 막 자리 잡는 타이밍이에요.

📌 한 줄 정리: LangChain은 가상환경 → API 키 관리 → 단순 체인부터 순서대로. 욕심 내서 RAG부터 시작하면 십중팔구 중간에 포기합니다.

막히는 포인트 요약: langchain-openai 따로 설치, 구버전 임포트 방식 주의, API 키 절대 하드코딩 금지.

#LangChain#LangChain 시작하는 법#AI 에이전트#파이썬 AI#cluster:ai-agents
공유카카오톡

📌 관련 글