용어사전 목록으로
AI 보안 · 입문
환각 (Hallucination)
AI 가 그럴듯하지만 틀린 답을 자신 있게 만들어내는 현상.
한 줄 정의
AI 모델이 학습되지 않은 사실을 추정·창작해 마치 사실인 것처럼 답변하는 현상.
초등학생도 이해할 비유
똑똑한 척하는 친구가 모르는 것도 그럴듯하게 지어내는 것 같아요. 자신감 있어 보여서 더 위험.
뉴스에서 어떻게 쓰이나요
“변호사가 ChatGPT 가 만든 가짜 판례를 인용해 처벌” — 환각의 위험을 보여주는 사례.
내 생활·투자·업무와 연결
중요한 정보 (법률·세금·의료) 는 반드시 1차 자료로 검증. 출처 요청 + 직접 확인은 필수 습관.
자주 헷갈리는 개념
- 거짓말 와의 차이
AI 는 의도적으로 속이지 않음. 학습 데이터 한계로 만들어내는 결과.
- 추정 와의 차이
AI 가 모를 때 모른다고 해야 하는데, 환각은 그걸 사실처럼 답하는 게 문제.
관련 용어
더 깊이 보기
자주 묻는 질문
Q. 환각을 0% 만들 수 있나요?▾
현재 기술로는 불가능. 줄이는 방법 — RAG, 출처 요청, 검증 단계.