Tagged: 트랜스포머

[AI타임스] “트랜스포머 벽 넘어”…’맘바-3′, 메모리 절반으로 성능·속도 능가

맘바-2와 맘바-3 아키텍처 비교 (사진=arXiv) 트랜스포머(Transformer)의 대안으로 꼽히는 ‘맘바(Mamba)’ 아키텍처의 최신 모델이 등장했다. 성능과 속도가 모두 향상, 트랜스포머를 본격적으로 앞서게 된 것이 특징이다.  카네기멜론대학교와 프린스턴대학교 등 맘바 아키텍처 개발 연구진은 18일(현지시간) 최신 버전인 ‘맘바-3’를...

[지디넷코리아] “1분짜리 AI 영상도 가능?”…엔비디아 TTT로 만든 ‘톰과 제리’

AI 영상의 한계는 20초? ‘TTT’는 1분짜리 복잡한 이야기까지 가능했다 기존의 생성형 AI는 몇 초 길이의 단편 영상만 생성할 수 있었다. 오픈AI(OpenAI)의 소라(Sora)는 최대 20초, 메타(Meta)의 무비젠(MovieGen)은 16초, 구글(Google)의 비오2(Veo 2)는 8초에 불과했다. 이러한 한계는...

[슬로우뉴스] 거대 언어 모델(예: 챗GPT)과 클라우드 서비스의 진화

챗GPT와 GPT-4의 발표, 마이크로소프트의 코파일럿의 등장(코파일럿에 대해서는 이번 특집의 또 다른 글에서 자세한 소개를 할 예정)은 지난 한 달 동안 인공지능 영역에서 가장 많은 논의와 찬탄과 비판을 쏟아 내게 만든 서비스일 것이다. 2020년 GPT-3...

[지디넷코리아] 개발자 학습 관심 1위는 AI…자바·파이썬 제쳐

챗GPT 인기로 자연어 처리와 딥러닝 등 AI 분야 강세 인공지능(AI) 챗봇 오픈AI가 폭발적인 인기를 누리면서 개발자들의 학습 트렌드도 AI중심으로 바뀌었다고 미국 지디넷이 오라일리의 2023년 연례 기술 동향 보고서를 인용 보도했다. 이 보고서는 오라일리의 학습...