2024 - LLMs

12. 메일진 2025. 1. 2. 15:49
728x90
반응형

 

 

 

 

카테고리 세부 내용
 GPT-4 한계를 완전히 넘어서다 - 18개 조직에서 GPT-4 능가 모델 발표
- Chatbot Arena 리더보드에 GPT-4-0314를 능가하는 70개 모델 등록
- Google Gemini 1.5 Pro, Anthropic Claude 3.5 등 주요 모델이 장문 입력과 고급 기능 제공
일부 GPT-4 모델이 내 노트북에서 실행됨 - M2 MacBook Pro에서 Qwen2.5-Coder-32B, Meta Llama 3.3 실행 가능
- 64GB RAM 사용으로 GPT-4급 모델 실행, 최적화 성과 반영
LLM 가격 폭락 - 가격 경쟁과 효율성 향상으로 비용 감소
- GPT-4o Mini: GPT-3.5 대비 7배 저렴
- Google Gemini 1.5 Flash: $0.0375/mTok
Multimodal 비전의 확산 - 텍스트 외 이미지, 오디오, 비디오 입력 처리 지원 모델 등장
- Google Gemini, Claude 시리즈, Qwen2-VL 등 다양한 모델 발표
음성과 라이브 카메라 모드 - OpenAI, Google에서 음성 대화 및 카메라 피드 공유 기능 제공
- 음성 모드는 다양한 억양 및 언어 지원
- 라이브 비디오 모드로 실시간 카메라 피드와 상호작용 가능
프롬프트 기반 앱 생성 - Claude Artifacts와 같은 기술로 온디맨드 앱 생성 가능
- Chatbot Arena에서 프롬프트를 활용한 앱 생성 및 성능 비교
최고의 모델에 대한 무료 접근 - GPT-4o, Claude 3.5 등 고성능 모델 무료 제공, 이후 유료화
- ChatGPT Pro 출시: $200 o1 Pro 사용 가능
"에이전트" - "에이전트" 개념의 정의와 실현 가능성 논란
- 신뢰성과 프롬프트 주입 문제로 인해 현실화 어려움
평가(Evals)의 중요성 - LLM 평가 도구의 중요성 대두
- 테스트 기반 개발 접근법이 핵심 역할 (Anthropic 사례)
- 평가 없는 프롬프트는 신뢰성 부족
Apple Intelligence MLX - MLX 라이브러리로 Mac에서 효율적 LLM 실행 가능
- Apple Intelligence는 기대에 미치지 못함
추론 스케일링 모델의 부상 - OpenAI o1, DeepSeek v3 등 계산 리소스를 활용한 추론 스케일링 모델 등장
- 더 어려운 문제 해결 및 성능 향상
현재 최고의 LLM - DeepSeek v3: 685B 파라미터로 공개 라이선스 모델 중 최고 성능
- 훈련 비용 $600만 미만으로 최적화
환경적 영향 개선 - 모델 효율성 증가로 에너지 소비 감소
- 훈련 비용 절감, DeepSeek v3가 대표적 사례
환경적 영향, 더욱 악화됨 - 데이터센터 확장으로 전력망과 환경에 큰 영향
- 과도한 인프라 구축 논란
2024, "Slop"의 해 - "Slop": 검증되지 않은 AI 생성 콘텐츠를 지칭하는 용어
- 잘못된 AI 사용 방식 경고로 문화적 영향을 미침
합성 학습 데이터의 놀라운 효과 - 합성 데이터가 학습 효율성과 성능 개선에 기여
- DeepSeek v3, Meta Llama 3.3 등 주요 모델에 활용
LLM 사용이 더 어려워진 2024 - LLM 도구의 복잡성 증가
- 사용자 교육과 신뢰성 개선 필요
지식의 불균형한 분포 - 기술 발전 속도와 사용자 이해 격차 심화
- 교육 콘텐츠 부족으로 정보 불균형 문제 발생
LLM에 대한 더 나은 비판 필요 - LLM의 과장된 기대감과 문제점에 대한 균형 있는 비판 필요
- 기술의 장단점을 이해하고 책임 있는 사용 방식 교육

 

GeekNews

카테고리 세부 내용
LLMs의 유용성 - 사용자 커뮤니케이션 능력에 따라 성능이 달라짐
- 정확한 질문과 배경 설명이 중요
- 지루한 작업을 빠르게 처리하는 데 유용
- 일부 사용자들이 LLMs를 과소평가함
"에이전트" 개념의 논란 - "에이전트" 용어는 명확히 정의되지 않아 혼란 초래
- 자율성이 포함된 진정한 에이전트가 필요
- "Agentic"이라는 표현은 불쾌감을 줄 수 있음
LLMs 사용의 어려움 - 사용 자체가 더 어려워졌다는 주장에 동의하지 않음
- 초보자에게 동일한 지침 제공
- 다만, "좋은" 결과를 판단하기가 어려워짐
- 벤치마크 조작으로 혼란 야기
가격과 비용 구조 - 가격 하락이 우려되는 상황
- 2025년 상반기에 가격 상승 가능성 예측
- Google Gemini Amazon Nova의 가격 구조와 에너지 비용 간의 논란
LLMs의 기술적 발전 - 일부 GPT-4 모델이 노트북에서 실행 가능
- 데이터 센터 의존도가 낮아질 가능성
- OpenAI의 가치가 과대평가되었을 수 있음
Apple DRAM 공급 - Apple 64GB DRAM 사용이 특별한 이유를 이해하기 어려움
- 데이터 센터가 대부분의 RAM 제조 용량을 점유하고 있는데 Apple DRAM을 안정적으로 공급받는 방법에 의문
LLMs에 대한 비판 - 새로운 LLM 모델이 과대평가되었다는 주장
- 산업 내 도덕성과 우수성 기준이 낮다는 의견
- "추론" 과정이 비효율적이라는 비판
- 일부 사용자가 LLMs 결함으로 인해 기술을 포기함
개인적 접근과 개선 노력 - 개인적으로 테스트 프레임워크를 구축하려고 함
- LLMs를 최대한 활용하려면 불안정하지만 강력한 기술과 협력하는 방법을 배워야 함

 

 

2024년 LLMs에 대해 배운 것들 | GeekNews

 

2024년 LLMs에 대해 배운 것들 | GeekNews

Simon Willison의 2024년 LLM 관련 전체 변화들 요약GPT-4 한계를 완전히 넘어서다일부 GPT-4 모델이 내 노트북에서 실행됨LLM 가격 폭락, 경쟁과 효율성이 만든 변화Multimodal 비전의 확산, 오디오와 비디오

news.hada.io

Things we learned about LLMs in 2024

 

Things we learned about LLMs in 2024

A lot has happened in the world of Large Language Models over the course of 2024. Here’s a review of things we figured out about the field in the past …

simonwillison.net

 

728x90
Posted by Mr. Slumber
,