![](https://blog.kakaocdn.net/dn/Qzg5J/btsGkoGeTDw/FzDcZgi6ZK30lJgKgLCgAk/img.png)
X의 Marvin von Hagen님(@marvinvonhagen)
Mistral just announced at @SHACK15sf that they will release a new model today: Mistral 7B v0.2 Base Model - 32k instead of 8k context window - Rope Theta = 1e6 - No sliding window
twitter.com
이번 버전업에서 특징적인 부분은 다음과 같습니다.
Mistral just announced at @SHACK15sf that they will release a new model today
:Mistral 7B v0.2 Base Model
- 32k instead of 8k context window
- Rope Theta = 1e6
- No sliding window (304kB)
context window도 기존의 8k에서 32k로 늘어났고,
alpindale/Mistral-7B-v0.2-hf · Hugging Face
🏆🇵🇱 speakleash/open_pl_llm_leaderboard 🔥 bpawnzZ/alpindale-Mistral-7B-v0.2-hf 👁 Soraj/alpindale-Mistral-7B-v0.2-hf
huggingface.co
이제 한국어 데이터셋 부어서 한국어 파생 모델만 만들면 되겠군요..! ^^
마침 얼마전 Markr AI에서 대용량 한국어 데이터셋인 KoCommercial Dataset를 라이센스 free로 배포했으니,
데이터셋도 있겠다..! 한번 돌려보면 좋겠네요 ㅎㅎㅎ
대용량 한국어 데이터셋 : Markr AI - KoCommercial Dataset
개요 지난달 Markr AI에서 140만개의 한국어 Fine tuning 데이터셋을 모으고 만들어서 배포했습니다. LLM을 파인튜닝 하려면 데이터셋 확보가 8할, 아니 9할이라고 해도 과언이 아닌데요. 한국 LLM 생태
didi-universe.tistory.com
'AI > LLM' 카테고리의 다른 글
호랑이(Horangi) - 한국어 LLM 리더보드 리뷰 (0) | 2024.04.08 |
---|---|
대용량 한국어 데이터셋 : Markr AI - KoCommercial Dataset (0) | 2024.04.03 |
[NLP] 허깅페이스 모델 캐시 확인하기 (2) | 2024.04.02 |
[논문리뷰] DeepSpeed-FastGen: High-throughput Text Generation forLLMs via MII and DeepSpeed-Inference (0) | 2024.01.22 |
[ChatGPT] GPT Store(GPTs) 오픈, 리뷰 및 사용성 검토 (0) | 2024.01.17 |
댓글