[디지털투데이] 빅 클라우드 ‘AI 최적화’ 인프라 전략 재정비 분주
[디지털투데이 황치규 기자] 거대언어모델(LLM) 같은 대규모 AI가 확산하면서 컴퓨팅 인프라 에도 변화의 바람이 거세다.
빅 클라우드 서비스는 물론 유력 엔프라이즈 컴퓨팅 하드웨어 회사들까지 대규모 AI에 최적화된 인프라를 구현하려는 움직임이 분주하다.
관련 업계에 따르면 현재 컴퓨팅 인프라 대부분은 챗GPT로 대표되는 생성 AI를 효과적으로 운영하는 것을 고려해 디자인되지 않았다.
클라우드를 예로 들면 CPU를 활용해 여러 워크로드들을 동시에 돌리는 서버들 비중이 여전히 압도적이다. AI에 최적화된 인프라는 일부에 그치고 있다.
월스트리트저널(WSJ) 최근 보도에 따르면 클라우드 서비스 인프라 중 일부만 LLM 등 대규모 워크로드를 지원하는 협력적인 서버 클러스터 및 GPU 같은 AI에 최적화된 인프라 기반으로 돌아가고 있다.
GPU는 많은 계산을 한번에 처리할 수 있어 CPU보다 AI 운영에 적합하다. 아마존웹서비스(AWS) 엘라스틱 컴퓨트 클라우드 사업 부문의 체탄 카푸어 제품 관리 디렉터는 “(AI와 관련해) 현재 수요와 공급 사이에는 상당한 불균형이 있다”고 말했다.
주요 컴퓨팅 인프라 업체들의 최근 행보는 이같은 간극을 메우는데 초점이 맞춰져 있다. 현재 AWS에서 한 클러스터는 GPU를 최대 2만개까지 담을 수 있다. 빠르게 늘고 있다 해도 전체에서 AI 최적화된 인프라 비중은 아직 매우 작다.
이를 감안해 AWS는 앞으로 1년간 AI에 최적화된 서버 클러스터 여러 개를 배치할 계획이라고 WSJ이 카푸어 디렉터를 인용해 전했다. 마이크로소프트 애저와 구글 클라우드도 AI 인프라 비중을 계속해서 확대해 나가고 있다고 덧붙였다.
AI에 최적화된 컴퓨팅 인프라 수요를 겨냥한 기존 서버 하드웨어 업체들 행보도 주목된다. AI와 관련해서는 컴퓨팅 인프라 시장에서 클라우드 회사들에 내줬던 주도권을 다시 찾고 싶어하는 기대감도 엿보인다.
델 테크놀로지스는 퍼블릭 클라우드 비용을 이유로 일부 기업들은 온프레미스(on-premises, 구축형) 인프라 배치를 고려할 것으로 보고 있다. 델은 이미 이를 겨냥한 서버를 선보인 상황이다. 최근에는 엔비디아와 협력해 생성AI에 최적화된 ‘프로젝트 헬릭스’ 이니셔티브도 발표했다.
프로젝트 헬릭스는 델과 엔비디아 인프라 및 소프트웨어가 사전 구성되어 있는 풀 스택 솔루션으로 제공된다. 기업들은 이를 활용해 독점적으로 보유한 데이터를 바탕으로 쉽고 간편하게, 정확하고 책임감 있는 생성 AI를 구축할 수 있다고 델은 강조했다.
WSJ에 따르면 델의 존 로즈 글로벌 CTO는 “기존 퍼블릭 클라우드 경젱 모델은 사람들이 AI 시스템으로 넘어가면서 우리가 보게 될 수요와 활동 수준에 최적화되지 않았다”면서 “온프레미스에서 기업들은 네트워킹이나 스토리지 같은 비용을 절감할 수 있을 것이다”고 말했다.
이에 대해 퍼블릭 클라우드 업체들은 온프레미스 배치는 하드웨어를 업그레이드할 때 많은 투자를 해야 하기 때문에 장기적으로 보다 많은 비용으로 이어질 수 있다고 지적하고 있다.
퀄컴의 경우 기업들이 AI 모델을 개별 기기에서 돌리는 시나리오에 투자하고 있다. 퀄컴은 현재 거대 모델들을 돌릴 수 있는 역량을 갖춘 장비를 개발 중이다.
하드웨어 업체들은 AI에 최적화된 시스템은 아직 초기 단계고 일부 컴퓨팅은 클라우드에서, 일부는 개별 기기에서 돌아가는 하이브리드가 궁극적인 솔루션일 것으로 보고 있다고 WSJ은 전했다.
구글 클라우드에서 클라우드 AI 및 머신러닝 시스템 총괄 매니저 겸 부사장인 아민 바흐댓은 “이것은 진정으로 인프라를 바라보는 관점, 구조 설계 및 인프라를 제공하는 방식에 대한 상의 변화(phase change)”라고 말했다.
출처 :
http://www.digitaltoday.co.kr/news/articleView.html?idxno=481937