2025.02.27
ⓒAI타임스 / 임대준 기자
딥시크가 저비용 고효율을 가능하게 만든 `전문가 혼합(MoE)` 방식의 핵심 요소를 오픈 소스로 공개했다. 이는 지난주 예고한 핵심 기술 오픈 소스 공개 예고에 따른 것이다.
딥시크는 25일 깃허브를 통해 `딥EP(Deep Expert Parallelism)`라는 인공지능(AI) 모델 통신 라이브러리를 공개했다.
이는 `V3` 및 `R1` 모델의 가장 큰 특징으로 꼽히는 MoE를 효율적으로 작동하도록 조정한 것이다. 즉, 다수의 전문가 모델 중 쿼리에 적당한 특정 전문가를 선택하고 이 모델의 병렬 계산(EP) 중 발생하는 데이터 처리량을 높이고 대기 시간을 줄이는 GPU 커널을 제공하는 것이다.
(후략)
[원본기사 :
https://www.aitimes.com/news/articleView.html?idxno=168317
]
댓글 0
댓글 작성
댓글을 작성하려면 게시글 작성 시 입력한 이메일과 패스워드를 입력해주세요.