LLM - 성능

07.AI 2024. 12. 11. 14:51
728x90
반응형

 

(현황)

최근 출시된 OpenAI의 o1 모델은

- 프로그래밍 대회(codeforces) 에서 89번째 백분위수를 기록하였고,

- 미국 수학 올림피아드(AIME) 예선에서 미국 내 상위 500명 안에 들었으며,

- 물리학, 생물학 벤치마크에서 인간 박사 학위 수준의 정확도를 능가한다[그림 1].

 

 

 

그러나 이러한 성과에도 불구하고, LLM은 여전히 추론 능력과 지식의 일관성 유지 측면에서 한계를 가지고 있다. 특히, 고차원적 사고와 일관된 결론 도출이 필요한 복잡한 문제에서는 성능이 제한적이다. 이를 해결하기 위해 여러 연구에서 LLM의 추론 성능을 높이는 다양한 방법을 제안하고 있다.

 

1. 추론 능력을 강화하기 위한 단계적 사고 기법 

Reasoning: LLM이 복잡한 질문이나 문제를 해결할 때 여러 단계를 거쳐 논리적으로 접근하는 능력

구분 Chain of Thought (CoT) Tree of Thought (ToT)
개념 문제를 단계별로 해결하며 사고를 전개하는 방식 사고 과정을 트리 구조로 확장하여 다양한 가능성을 탐색
특징 - 선형적인 사고 전개
- 단계별로 결론 도출
- 비선형적 사고 전개
- 여러 경로를 탐색하며 최적의 결론 도출
장점 - 과정이 명확하고 직관적
- 단계별로 논리를 검증 가능
- 복잡한 문제 해결 가능
- 유연한 사고 경로 제공
적용분야 - 수학 문제 풀이
- 논리적 추론
- 단계적 설명이 필요한 문제
- 창의적 문제 해결
- 다단계 선택지 탐색
- 복잡한 의사결정
예시 - 수학 문제: 계산 과정을 단계별로 기술 - 퍼즐 문제: 여러 선택지를 시뮬레이션하여 최적 경로 선택
제한점 - 복잡한 문제에서는 한정된 사고 경로만 탐색 - 계산 비용이 높음
- 결과가 복잡해질 수 있음

 

2. 신뢰도 및 정확도 강화를 위한 외부 데이터 결합 기법 

구분 RAG (Retrieval-Augmented Generation) RIG (Retrieval-Integrated Generation)
개념 모델이 외부 데이터베이스에서 검색한 정보를 기반으로 응답을 생성 모델 내부의 학습된 데이터와 검색된 정보를 결합하여 응답을 생성
특징 - 검색된 정보는 응답 생성의 입력 데이터로 사용
- 검색 결과와 모델의 학습된 지식은 별도로 활용됨
- 검색된 정보가 응답 생성 과정에 직접 통합되어 모델의 생성 능력과 결합
장점 - 실시간 데이터 활용 가능
- 사전 학습 지식 한계를 보완
- 모델과 외부 데이터 간의 통합으로 더 정교하고 일관된 응답 생성
적용분야 - 검색 기반 Q&A
- 실시간 정보 제공이 필요한 작업
- 고도화된 대화형 AI
- 복잡한 응답 생성 및 지식 통합
작동방식 - 검색 엔진을 통해 관련 데이터를 검색
- 검색된 데이터를 입력으로 활용해 응답 생성
- 검색된 정보를 모델의 입력 처리 과정에 삽입하여 직접적으로 반영
제한점 - 검색 품질에 따라 응답 품질이 좌우됨
- 검색 결과와 모델 간 불일치 가능성
- 통합 과정의 복잡성 증가
- 대규모 데이터 처리 시 성능 이슈
- 뉴스 데이터 검색 후 요약 제공
- 특정 주제 관련 최신 정보 제공
- 특정 법률이나 기술 문서를 기반으로 한 복합적 질문 응답

 

3. 모델 병합 및 결합 기법의 특징 및 효과  

항목 내용
목적 여러 파운데이션 모델의 강점을 통합하여 성능 강화비용 절감을 동시에 달성
특징 - 다양한 작업을 동시에 수행할 수 있는 모델 구축
- 복합적인 작업에 최적화된 구조 설계
장점 - 서로 다른 모델의 특화된 강점을 활용
- 모델 훈련 비용 절감
- 작업 효율성과 유연성 증가
작동방식
  • 병합(Merging): 모델의 파라미터(가중치) 또는 학습된 데이터를 결합하여 새로운 모델을 생성.
  • 결합(Integration): 각 모델의 모듈을 조합하여 협력적 실행을 가능하게 함.
응용분야 - 멀티태스킹 작업 (예: 텍스트 생성 + 이미지 생성)
- 대규모 데이터 분석 및 정교한 결과 생성
한계 - 모델 간 호환성 문제 발생 가능
- 결합된 모델의 최적화 과정이 복잡
- 성능 균형 조정 필요
예시 - 텍스트와 이미지 작업을 결합한 멀티모달 모델 구축
- LLM과 전문 도메인 모델의 협업

주간기술동향 2159호, 대규모 언어 모델(LLM) 성능 향상을 위한 연구 동향, 2024.12.11

 

주간기술동향 2159호, 대규모 언어 모델(LLM) 성능 향상을 위한 연구 동향, 2024.12.11

 

 

 

 

https://www.itfind.or.kr/publication/regular/weeklytrend/weekly/list.do

 

주간기술동향 2159호

기획시리즈 - 음성 딥페이크 탐지기술 동향 ICT 신기술 - 대규모 언어 모델(LLM) 성능 향상을 위한 연구 동향

www.itfind.or.kr

 

728x90
Posted by Mr. Slumber
,