2025.02.17
ⓒAI타임스 박찬 기자
딥시크가 대형언어모델(LLM)은 추론 성능을 향상하기 위한 새로운 사후 훈련 방식을 개발했다. 이 방식은 모델의 추론 과정이 실제로는 코드를 통해 진행된다는 데 착안, 자연어 설명을 추가해 LLM이 논리적 흐름을 자연스럽게 강화할 수 있도록 했다.
딥시크와 북경교통대학교, 홍콩과학기술대학교 연구진은 지난 11일 코드 기반 LLM 학습 과정을 자연어로 변환, 추론 능력을 강화하는 새로운 방식을 발표했다. 논문 제목은 ‘코드I/O(CODEI/O): 코드 입력-출력 예측을 통한 추론 패턴 응축’이다.
(후략)
[원본기사 출처 :
https://www.aitimes.com/news/articleView.html?idxno=168039
]
댓글 0
댓글 작성
댓글을 작성하려면 게시글 작성 시 입력한 이메일과 패스워드를 입력해주세요.