ChatGPT와 같은 대화형 AI는 질문에 대해 매우 자연스럽고 논리적인 답변을 제공합니다.하지만 때로는 사실이 아닌 내용을 사실처럼 말하는 경우가 발생하며, 이 현상을 할루시네이션(hallucination)이라고 부릅니다.할루시네이션은 AI가 고의로 거짓말을 하는 것이 아니라, 언어 생성 방식의 한계에서 비롯됩니다. 이 개념을 정확히 이해하지 않으면, AI의 답변을 그대로 신뢰해 잘못된 정보가 확산될 수 있습니다.이 글에서는 할루시네이션이 무엇인지, 왜 발생하는지, 어떤 유형이 있는지, 그리고 실무나 콘텐츠 제작에서 어떻게 주의해야 하는지를 자세히 정리합니다.AI 할루시네이션이 뭐지?할루시네이션은 AI가 사실 확인 없이 그럴듯한 문장을 생성하는 현상을 의미합니다.AI는 “사실을 검색해서 전달하는 존재”..