이 누리집은 대한민국 공식 전자정부 누리집입니다.

딥시크, LLM '추론 성능 향상법' 오픈 소스 공개..."코드 대신 자연어로 추론 훈련"

2025.02.17

2025.02.16

ⓒAI타임스 박찬 기자

딥시크가 대형언어모델(LLM)은 추론 성능을 향상하기 위한 새로운 사후 훈련 방식을 개발했다. 이 방식은 모델의 추론 과정이 실제로는 코드를 통해 진행된다는 데 착안, 자연어 설명을 추가해 LLM이 논리적 흐름을 자연스럽게 강화할 수 있도록 했다.

딥시크와 북경교통대학교, 홍콩과학기술대학교 연구진은 지난 11일 코드 기반 LLM 학습 과정을 자연어로 변환, 추론 능력을 강화하는 새로운 방식을 발표했다. 논문 제목은 ‘코드I/O(CODEI/O): 코드 입력-출력 예측을 통한 추론 패턴 응축’이다.

(후략)

[원본기사 출처 :

https://www.aitimes.com/news/articleView.html?idxno=168039

]

댓글 0

첫 댓글을 작성해보세요!

댓글 작성

댓글을 작성하려면 게시글 작성 시 입력한 이메일과 패스워드를 입력해주세요.