Claude 한계와 제약사항 솔직하게 — 광고 없이 있는 그대로
Claude가 못 하는 것들, 틀리는 이유, 그리고 그걸 모르고 쓰면 어떤 일이 생기는지 — 직접 써본 사람이 솔직하게 정리했습니다.
뉴스에서 "Claude가 GPT보다 안전하다"는 말 들어보셨죠? 저도 처음엔 그 말만 믿고 무작정 써봤어요. 그런데 쓰다 보면 뭔가 이상한 순간들이 생겨요. 분명히 물어봤는데 대답을 안 하거나, 자신있게 대답했는데 나중에 보니 틀렸거나. "이거 믿어도 되나?" 싶어서 찾아보셨다면 — 잘 오셨어요. 오늘은 공식 홍보자료 말고, 실제로 Claude를 쓰면서 부딪히는 한계들을 있는 그대로 정리해볼게요.
Claude가 "모른다"고 안 하고 지어내는 순간들
솔직히 이게 제일 무서운 부분이에요.
Claude는 틀린 정보를 틀렸다고 모르는 채로 자신있게 말할 때가 있어요. 이걸 할루시네이션이라고 부르는데, 쉽게 말하면 AI가 그럴듯하게 내용을 '만들어내는' 현상이에요. 존재하지 않는 논문 제목, 실제로 없는 법 조항, 기억 속에서 뒤섞인 인물 정보 같은 것들이요.
친구가 "Claude한테 우리 회사 관련 판례 찾아달라고 했더니 막 알려주던데?" 하면 — 거기서 딱 멈춰야 해요. 그 판례가 실제로 존재하는지 반드시 검증해야 합니다. 실제로 2023년에 미국 변호사가 Claude가 만들어낸 가상의 판례를 법원에 제출했다가 징계를 받은 사건이 있었어요. 농담이 아닌 실제 사건이에요.
특히 구체적인 숫자, 날짜, 사람 이름이 들어간 질문일수록 더 조심해야 해요.
2023년 이후 일은 그냥 모릅니다
Claude에게는 훈련 데이터 컷오프가 있어요. 이건 Claude가 세상을 배운 마지막 날짜 같은 거예요. 그 이후에 일어난 일은 Claude 입장에서는 존재하지 않아요.
현재 Claude 3.5 기준으로 지식 컷오프가 2024년 초반 정도예요. 그러니까 최근 금리 변동, 작년 말에 터진 경제 이슈, 새로 나온 AI 도구 같은 건 Claude한테 물어봐도 정확한 답을 못 받아요. 더 문제인 건 Claude가 "나는 이걸 몰라요"라고 명확히 선을 긋는 게 아니라, 아는 척 하면서 오래된 정보를 최신인 것처럼 말할 때가 있다는 거예요.
"요즘 비트코인 가격이 어때?" 같은 질문에 Claude가 어떤 숫자를 말해준다면 — 그건 진짜 지금 가격이 아니에요. 학습 당시 데이터에서 나온 숫자예요.
왜 갑자기 대답을 거부하는 걸까?
이거 처음 겪으면 당황스러워요. 멀쩡한 질문인데 Claude가 "저는 그 부분은 도움을 드리기 어렵습니다"라고 하는 경우요.
Claude를 만든 Anthropic이라는 회사는 AI 안전성을 굉장히 강조하는 곳이에요. 그래서 Claude에는 꽤 강한 콘텐츠 필터가 걸려 있어요. 위험한 정보나 해로운 콘텐츠를 차단하는 장치인데, 이게 때로는 과하게 작동해요.
예를 들면 소설 속 범죄 장면 묘사, 역사적 사건의 폭력성 서술, 의약품 부작용 정보 같은 것들도 맥락에 따라 거부당하는 경우가 생겨요. 저도 한번은 역사 소설 쓰려고 전쟁 장면 묘사를 부탁했다가 거절당한 적 있어요. 그 맥락에서는 전혀 문제없는 요청이었는데도요.
이 필터가 "안전을 위한 것"이라는 건 이해하지만, 실제로 써보면 불필요하게 막히는 상황이 꽤 있다는 게 솔직한 경험이에요.
대화가 길어지면 앞에 한 말을 잊어버려요
Claude와 한참 긴 대화를 하다 보면 이상한 일이 생겨요. 앞에서 분명히 "나는 마케터야, B2B 기업 다녀"라고 말했는데 한참 뒤에는 전혀 다른 맥락으로 대답하는 거예요.
이건 컨텍스트 윈도우 한계 때문이에요. 쉽게 말하면 Claude가 한번에 기억하고 처리할 수 있는 대화 분량에 제한이 있다는 거예요. 책으로 치면 약 150페이지 분량 정도가 한계예요. 그걸 넘어가면 앞쪽 내용이 밀려나면서 Claude가 사실상 잊어버리는 거예요.
실용적으로 이 얘기를 하면 — 긴 문서 분석이나 장편 소설 교정 같은 작업을 시킬 때, 내용이 너무 길면 뒤쪽에서는 앞쪽 내용을 반영 못 할 수 있어요. 그리고 새 대화창을 열면 이전 대화는 완전히 사라져요. Claude는 당신이 누군지 기억 못 해요. 매번 처음 만나는 사람이에요.
수학이랑 코딩은 잘하는데, 진짜 '계산'은 약해요
이게 좀 아이러니한 부분이에요. Claude는 수학 개념 설명은 꽤 잘해요. 그런데 실제 계산 과정에서 실수를 해요.
복잡한 연산, 특히 여러 단계를 거치는 계산을 시키면 중간 어딘가에서 조용히 틀리는 경우가 있어요. 예를 들어 "월 300만 원 수입에서 세금 3.3% 떼고, 4대 보험 9.4% 빼고, 교통비 12만 원 제하면 실수령이 얼마야?" 같은 걸 시키면 — 답이 나오긴 하는데 가끔 맞고 가끔 틀려요. 맹신하면 안 돼요.
Claude 자체도 이걸 알아서인지, 최근 버전에서는 중요한 계산은 코드를 실행해서 확인하는 방식을 쓰기도 해요. 그래도 최종 숫자는 직접 검산하는 게 맞아요.
그럼 Claude는 무엇에 쓰면 안 되는 거야?
한 마디로 정리하면 — 검증 없이 그대로 쓰면 안 되는 상황들이 있어요.
의료 정보, 법률 판단, 재무 계산처럼 하나 틀렸을 때 큰일 나는 영역. 이런 데서 Claude 답변을 복붙해서 쓰는 건 진짜 위험해요. 1억 원짜리 대출 계산을 Claude한테 맡겼는데 이자 계산 방식이 틀렸다면, 그게 그냥 "아 실수했네"로 끝나는 문제가 아니잖아요.
반대로 초안 작성, 아이디어 브레인스토밍, 개념 이해, 코드 구조 잡기 같은 영역은 진짜 유용해요. "완벽한 정답"이 아니라 "출발점"으로 쓸 때 Claude는 꽤 강력한 도구예요.
처음엔 저도 Claude를 구글 검색 대체품처럼 썼는데, 맞는 비유가 아니에요. Claude는 아는 게 많지만 틀릴 수 있는 대화 상대예요. 그 차이를 알고 쓰면 훨씬 잘 쓸 수 있어요.
📌 한 줄 정리
Claude는 할루시네이션(정보 날조), 지식 컷오프(최신 정보 부재), 과도한 콘텐츠 필터, 긴 대화 기억 한계, 계산 실수 — 이 다섯 가지 한계가 있어요. 결과물을 검증 없이 그대로 쓰지 않는 것, 그게 Claude를 잘 쓰는 유일한 방법이에요.