AI가 때때로 “환각’을 보고 실수를 하는 이유는 무엇일까?
생성형 AI 기술에서는 "환각"이라 불리는 현상이 발생합니다. 이는 AI가 실제로 존재하지 않는 정보를 마치 사실인 것처럼 제시하는 경우를 말합니다. 이런 현상이 발생하는 주된 이유는 모델이 확률에 기반하여 다음 단어를 예측하는 방식으로 작동하기 때문에, 때로는 그 예측이 사실과 일치하지 않을 수 있기 때문입니다.
ChatGPT와 같은 대규모 언어 모델(LLM)은 트랜스포머 아키텍처를 기반으로 작동합니다. 이 모델은 방대한 양의 텍스트 데이터로 사전 학습되어 패턴을 인식하고, 주어진 프롬프트에 대해 다음에 올 가능성이 높은 단어를 예측하는 방식으로 텍스트를 생성합니다. 이러한 예측은 확률적 분포에 기반하며, 이전 컨텍스트를 고려해 각 새로운 단어를 선택합니다.
OpenAI는 대화형 AI 시스템인 ChatGPT를 발표함으로써 기술 산업계에 주목할 만한 영향을 미쳤습니다. 이 시스템은 자연어 커뮤니케이션을 처리하고 사용자의 간단한 지시에 따라 다양한 창의적 콘텐츠를 생성할 수 있는 능력을 갖추고 있습니다. FACT 1377은 새로운 문화로 자리잡고 있는 AI에 대한 기술적 작동 원리와 시 작성 및 프로그래밍 코드 생성과 같은 사용자 요청에 대응하는 메커니즘을 분석과 함께 디지털 사회에서 소외감을 느끼지 않도록 AI에 대한 콘텐츠를 지속적으로 연재하겠습니다.
Member discussion