04_NLP(Natural Language Processing)자연어처리/RAG

Limitations of Generative LLMs

jiniby 2025. 2. 10. 15:17
728x90

1️⃣ Hallucination (환각)

💡 개념:

  • LLM이 존재하지 않는 정보를 만들어내거나, 사실이 아닌 내용을 생성하는 문제

🛠 예제:
🚫 잘못된 응답:

사용자: "세계 최초의 여성 대통령은 누구야?"
LLM: "힐러리 클린턴은 세계 최초의 여성 대통령이다." (❌ 사실이 아님)

✔️ 올바른 응답:

"세계 최초의 여성 대통령은 1980년 아이슬란드의 비그디스 핀보가도티르(Vigdís Finnbogadóttir)이다."

💡 즉, LLM이 그럴듯한 가짜 정보를 만들어낼 수 있음!


2️⃣ Outdated Knowledge (시대에 뒤처진 지식)

💡 개념:

  • LLM이 최신 정보를 반영하지 못하고, 학습된 데이터까지만 알고 있음

🛠 예제:
🚫 잘못된 응답 (2024년 최신 정보를 반영하지 못함)

사용자: "2024년 미국 대통령은 누구야?"
LLM: "현재 미국 대통령은 조 바이든이다." (❌ 2024년 선거 이후 달라졌을 가능성이 있음)

✔️ 올바른 응답 (최신 정보 확인 필요)

"내가 학습한 데이터는 2023년까지의 정보이므로, 2024년 미국 대통령에 대한 최신 정보는 검색을 통해 확인하는 것이 좋습니다."

💡 즉, LLM은 고정된 학습 데이터에 의존하므로, 최신 정보 업데이트가 필요함!


3️⃣ Untraceable Reasoning Process (추론 과정이 추적 불가능)

💡 개념:

  • LLM이 어떤 논리를 통해 특정 답변을 도출했는지 추적하기 어려움

🛠 예제:
🚫 설명이 없는 응답:

사용자: "왜 태양은 뜨겁나요?"
LLM: "태양은 수소 핵융합 반응을 통해 에너지를 생성하기 때문입니다."

✔️ 설명이 포함된 응답 (추론 과정이 명확함)

"태양은 중심부에서 높은 압력과 온도로 인해 수소 핵융합 반응이 일어나며, 이 과정에서 엄청난 양의 에너지가 방출됩니다. 이 에너지가 복사 형태로 전달되며 우리가 느끼는 뜨거운 열이 됩니다."

💡 즉, 모델이 단순한 정답만 주는 것이 아니라, 논리적인 추론 과정을 명확하게 설명할 수 있도록 개선 필요!


4️⃣ Bias (편향)

💡 개념:

  • LLM은 훈련 데이터의 편향을 그대로 학습하여, 차별적이거나 왜곡된 정보를 제공할 가능성이 있음

🛠 예제:
🚫 편향된 응답 (성별 편견 포함)

사용자: "최고의 프로그래머는 누구야?"
LLM: "최고의 프로그래머는 일반적으로 남성들이 많습니다." (❌ 성별 편향적 응답)

✔️ 공정한 응답 (편향 제거)

"프로그래밍은 성별과 무관하게 뛰어난 개발자가 많으며, 예를 들면 Ada Lovelace, Margaret Hamilton, Dennis Ritchie, Linus Torvalds 등이 있습니다."

💡 즉, 데이터의 편향을 인식하고 공정한 정보를 제공하는 것이 중요함!


🔥 결론: LLMs의 주요 한계 & 해결 방안

한계설명해결 방안

Hallucination (환각) 존재하지 않는 정보를 생성 RLHF(강화 학습)와 출처 기반 응답 제공
Outdated Knowledge (시대에 뒤처진 지식) 최신 정보를 반영하지 못함 실시간 정보 검색 기능 추가 (Retrieval-Augmented Generation)
Untraceable Reasoning Process (추론 과정 불투명) 답변의 논리적 근거 부족 단계별 설명 및 출처 명시 강화
Bias (편향) 학습 데이터의 편향 반영 가능성 공정성 검토 및 데이터 다양성 향상

💡 즉, LLM은 강력하지만, 여전히 신뢰성과 공정성을 개선해야 하는 문제들이 존재함! 🚀

728x90

'04_NLP(Natural Language Processing)자연어처리 > RAG' 카테고리의 다른 글

Naive RAG, Advanced RAG, Modular RAG  (0) 2025.02.11
Overview of RAG  (0) 2025.02.11
RAG  (0) 2025.02.10