728x90
반응형
현재 2,000억개의 토큰으로 학습된 70억개의 OpenLLaMA 가 프리뷰로 공개되었습니다. 그리고 사전 학습된 OpenLLaMA 모델의 PyTorch 및 Jax 가중치와 평가 결과, 그리고 기존 LLaMA 모델과의 비교를 제공하고 있습니다. (5월 3일 3,000억개 토큰까지 학습되었네요.)
상업적 용도로 사용이 가능한 최신 오픈소스 거대 언어 모델들
Stability AI, 거대 언어 모델 'StableLM-Alpha' 오픈소스로 공개
우리는 왜 오픈소스에 관심을 갖아야 할까요?
1. 데이터가 Privacy 가 필요한 경우 오픈소스 LLM 모델은 로컬 혹은 내부 서버에서 실행이 가능합니다.2. 대규모 언어 모델을 비즈니스 목적에 맞게 다시 학습을 하거나, 파인튜닝을 통해 새로운 소규모 모델을 운영할 수 있습니다.3. OpenAI 등에서 제공하는 대형 LLM을 사용하는데 소요되는 비용과 의존성에 따른 잠재적인 리스크를 줄일 수 있습니다.
https://revf.tistory.com/m/286
https://tech.kakaoenterprise.com/191
728x90
'07.AI' 카테고리의 다른 글
로우 코드(Low Code), 노 코드(No Code) - AI for Low-Code for AI (0) | 2023.09.23 |
---|---|
생성형 AI - 법제도 (0) | 2023.09.20 |
생성형 AI - LLaMa - 셰퍼드(Shepherd) (0) | 2023.08.28 |
생성형 AI - 인공지능 챗봇(ChatGPT) (0) | 2023.08.28 |
추천 시스템 - 에코 챔버 (0) | 2023.08.10 |