2025.09.24
ⓒAI타임스 / 박찬 기자
알리바바가 텍스트와 이미지, 오디오, 비디오 등을 동시 처리할 수 있는 오픈 소스 멀티모달 언어모델 ‘큐원3-옴니(Qwen3-Omni)’를 공개했다. 텍스트와 음성 입출력 모두에서 한국어를 지원하며, 실시간 대화와 장문 추론에 적합하도록 설계됐다.
알리바바는 22일(현지시간) 새로운 멀티모달 언어모델 ‘큐원3-옴니(Qwen3-Omni)’를 공개했다.
이는 ‘네이티브 옴니모달(Native Omni-Modal) AI’ 기능을 갖춰 단일 모델에서 텍스트, 이미지, 오디오, 비디오를 동시에 입력받아 처리할 수 있다. 출력은 텍스트와 음성을 지원한다.
(후략)
[원본기사 :
https://www.aitimes.com/news/articleView.html?idxno=202652
]
댓글 0
댓글 작성
댓글을 작성하려면 게시글 작성 시 입력한 이메일과 패스워드를 입력해주세요.