gradio (1) 썸네일형 리스트형 LangChain, RAG, Gradio 구경해 보기 이전 글에서 ollama로 llama 3를 로컬에서 실행해서 사용해 보았었다.ollama 프롬프트에 몇 가지 질문을 던져보면 원하는 답변을 얻을 경우도 있지만 말도 안 되는 엉터리 답변도 그럴싸하게 진실인 것처럼 답변을 한다.이런 현상을 AI 할루시네이션(Hallucination : 환각)이라고 하는데 다양한 원인들로 인해 발생하고 이를 줄이기 위해 다양한 해결 방법을 사용해야 한다.LLM에 학습되지 않은 지식을 주입하는 방법이 몇 가지 있다.Fine-Tuning : 현재 사용하는 model에 새로운 지식에 대한 dataset을 추가 학습Retrieval-Augmented Generation (RAG) : 응답을 생성하기 전 학습 datasource 외부의 신뢰할 수 있는 지식 베이스를 참조하도록 하는 .. 이전 1 다음