대규모 언어 모델(LLM)에서 환각을 일으키는 원인을 알아보고 AI 생성 콘텐츠의 부정확성을 완화하기 위한 효과적인 전략을 살펴보세요.
의 맥락에서 대규모 언어 모델(LLM)에서 환각은 생성 모델이 자신감 있고 구문론적으로 유창하지만 사실적으로 부정확하거나, 무의미하거나, 소스 자료에 충실하지 않은 콘텐츠를 생성할 때 발생합니다. 표준 데이터베이스 검색 오류와는 다릅니다, 환각 생성 AI 의 환각은 그럴듯하게 들리는 경우가 많기 때문에 사용자가 직접 검증하지 않으면 detect 어렵습니다. 이러한 현상은 은 이러한 모델의 기본 설계에서 비롯된 것으로, 다음 사항을 우선시합니다. 텍스트 생성 텍스트 생성을 우선시하는 통계적 확률에 기반한 텍스트 생성을 우선시하는 기본 설계에서 비롯됩니다. 환각을 이해하는 것은 안전한 AI 시스템을 구축하는 데 있어 매우 중요합니다. 시스템을 구축하려면 환각을 이해하는 것이 중요합니다. 특히 의료, 금융, 법률 서비스와 같은 고위험 산업에서는 더욱 그렇습니다.
환각의 주요 원인은 다음과 같습니다. 트랜스포머 아키텍처와 기초 모델을 구축하는 데 사용되는 훈련 목표에 있습니다. 이러한 시스템은 다음을 예측하도록 훈련됩니다. 토큰 패턴을 기반으로 다음 토큰을 방대한 양의 트레이닝 데이터. "사실" 또는 "허구"라는 고유한 개념을 가지고 있는 것이 아니라, 단어가 함께 나타날 단어가 함께 나타날 가능성을 모델링합니다.
이 동작에는 여러 가지 요인이 있습니다:
환각은 미묘한 부정확성부터 완전한 조작에 이르기까지 다양한 형태로 나타날 수 있습니다:
ultralytics.detect_everything())의 이름을 표준 명명 규칙에 따라 지정합니다.
훈련 데이터에서 본 표준 이름 지정 규칙을 기반으로 합니다.
환각 감소는 다음과 같은 주요 초점입니다. AI 안전 연구의 초점입니다. 현재 몇 가지 기술 이 현재 현실의 모델에 적용되고 있습니다:
멀티모달 워크플로우에서 환각을 완화하는 효과적인 방법 중 하나는 정확도가 높은 객체 감지 모델을 사용하여 이미지의 물리적 내용을 LLM이 설명하기 전에 검증하는 것입니다. 검증된 오브젝트 목록을 LLM의 컨텍스트에 제공함으로써 컨텍스트에 공급함으로써 존재하지 않는 요소를 생성하는 것을 방지할 수 있습니다.
다음 예는 사용 방법을 보여줍니다. Ultralytics YOLO11 을 사용하여 객체의 실측 데이터 목록을 생성하는 방법을 보여줍니다. 이 목록은 생성 모델에 대한 사실적 제약 조건으로 사용될 수 있습니다.
from ultralytics import YOLO
# Load the official YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']
환각을 다른 유형의 AI 오류와 구별하는 것이 중요합니다:
생성 모델 평가에 대한 자세한 내용은 다음을 참조하세요. NIST AI 위험 관리 프레임워크 을 살펴보면 신뢰성 및 안전 표준에 대한 포괄적인 내용을 확인할 수 있습니다. 또한 연구자들은 계속해서 사실 확인 알고리즘 을 지속적으로 개발하여 환각적인 콘텐츠를 실시간으로 자동으로 detect 플래그를 지정하고 있습니다.