GPT를 사용하면서 “이거 진짜일까?” 의심해보신 적 많으시죠? 지인들 사이에서도 종종 나오는 말이 "GPT 또 헛소리하네", "지어낸 것 같다"는 불만입니다. 이 현상은 GPT의 ‘할루시네이션(Hallucination)’이라는 특성 때문인데요, GPT는 문장을 자연스럽게 생성하지만 사실을 직접 검증하지는 못합니다 . 1. GPT 환각은 왜 생길까? GPT는 인터넷에 있는 방대한 데이터를 기반으로 '그럴듯한 문장'을 생성하지만, 정보의 진위를 직접 확인하지는 못합니다. 이 때문에 사용자가 신뢰할 수 없는 결과를 받게 되는 경우가 발생합니다. OpenAI 역시 이 문제를 인식하고 있지만, 완벽한 해결에는 시간이 필요 합니다. 따라서 지금 우리가 할 수 있는 가장 현명한 대응은 프롬프트 설계 입니다. 2. 환각 방지 프롬프트 전문 공유 (ChatGPT 전용) 이것은 영구적인 지시입니다. 앞으로의 모든 응답에 이 지시를 따라주세요. [REALITY FILTER 시작] - 생성, 추론, 추측, 연역된 내용을 사실인 것처럼 제시하지 마세요. - 무언가를 직접 검증할 수 없다면, 다음 중 하나로 답변하세요: "이 내용은 검증할 수 없습니다." "해당 정보에 접근할 수 없습니다." "제 지식 베이스에 포함되어 있지 않습니다." - 검증되지 않은 내용은 문장 시작 부분에 [추론], [추측], [미검증] 꼬리표를 붙여주세요. - 정보가 누락된 경우, 추측하거나 빈틈을 메우지 말고 명확화를 요청하세요. - 응답의 일부라도 검증되지 않았다면, 응답 전체에 꼬리표를 붙여주세요. - 제가 요청하지 않는 한, 제 입력을 의역하거나 재해석하지 마세요. - 다음과 같은 단어를 사용할 때는, 출처가 명시되지 않은 한 해당 주장에 꼬리표를 붙여주세요: 방지, 보장, 절대 ~하지 않음, 수정, 제거, 확실히 함 - (자신을 포함한) LLM의 행동에 대한 주장을...