이 누리집은 대한민국 공식 전자정부 누리집입니다.

딥시크, 저비용 고효율 'MoE 엔지니어링' 핵심 기술 오픈 소스 공개

2025.02.27

2025.02.26

ⓒAI타임스 / 임대준 기자

딥시크가 저비용 고효율을 가능하게 만든 `전문가 혼합(MoE)` 방식의 핵심 요소를 오픈 소스로 공개했다. 이는 지난주 예고한 핵심 기술 오픈 소스 공개 예고에 따른 것이다.

딥시크는 25일 깃허브를 통해 `딥EP(Deep Expert Parallelism)`라는 인공지능(AI) 모델 통신 라이브러리를 공개했다.

이는 `V3` 및 `R1` 모델의 가장 큰 특징으로 꼽히는 MoE를 효율적으로 작동하도록 조정한 것이다. 즉, 다수의 전문가 모델 중 쿼리에 적당한 특정 전문가를 선택하고 이 모델의 병렬 계산(EP) 중 발생하는 데이터 처리량을 높이고 대기 시간을 줄이는 GPU 커널을 제공하는 것이다.

(후략)

[원본기사 :

https://www.aitimes.com/news/articleView.html?idxno=168317

]

댓글 0

첫 댓글을 작성해보세요!

댓글 작성

댓글을 작성하려면 게시글 작성 시 입력한 이메일과 패스워드를 입력해주세요.