Industry Trends
AWS re:Invent 2024 리뷰: AI 인프라 혁신이 비즈니스를 바꾼다

매년 12월, 전 세계 클라우드 산업의 핵심 기업과 전문가들이 한자리에 모여 미래 기술을 논의하는 행사인 AWS 리인벤트(re:Invent)가 2024년에도 성황리에 개최되었습니다. AWS 리인벤트는 아마존 웹 서비스(Amazon Web Services; AWS)가 주최하는 세계 최대 규모의 클라우드 컴퓨팅 컨퍼런스로, 글로벌 IT 리더, 개발자, 스타트업, 대기업 등 다양한 업계 관계자들이 참석하여 클라우드 기술의 현재와 미래를 조망하는 자리입니다.
이번 AWS 리인벤트 2024는 2024년 12월 2일부터 6일까지 미국 라스베이거스에서 개최되었으며, AWS의 차세대 하드웨어부터 머신러닝 서비스, 아마존의 신규 인공지능(AI) 모델까지 발표되며 IT업계의 주목을 받았습니다. 특히, AWS의 최신 기술 발표, 글로벌 고객 사례, 실습형 워크숍, 협업 네트워킹 행사 등 다양한 프로그램이 제공되며, 참가자들은 AWS의 기술 로드맵과 비즈니스 혁신 전략을 직접 경험할 수 있었습니다.
가장 두드러진 변화는 AWS가 생성형 AI 주도권을 리딩하기 위한 다양한 라인업을 공개한 것입니다. 컴퓨팅 자원에서, 신규 언어 모델, 통합 생성형 AI 구축 플랫폼까지, 엔터프라이즈 고객들이 자체 환경 내에서 안전하게 생성형 AI를 마음껏 활용할 수 있는 환경을 제공 예정입니다.
올해 개최된 AWS 리인벤트 2024는 단순한 기술 행사에 그치지 않고, 기업들이 클라우드와 AI를 통해 디지털 전환을 어떻게 가속화할 수 있는지를 보여주는 자리였습니다. 이제 본격적으로 행사에서 발표된 주요 기술 및 업데이트를 살펴보겠습니다.
차세대 AI 인프라를 위한 AWS의 강력한 AI 학습 환경 구축
최근 생성형 AI(Generative AI) 애플리케이션이 급속도로 확산되면서, 이를 운영하고 훈련할 수 있는 클라우드 인프라의 중요성이 더욱 커지고 있습니다. 대규모 AI 모델을 학습시키기 위해서는 방대한 양의 연산 자원이 필요하며, 이를 효과적으로 지원할 수 있는 고성능 AI 칩과 대규모 데이터센터 인프라가 필수적입니다. AWS 리인벤트 2024에서는 이러한 AI 학습 인프라를 극대화하기 위한 AWS의 전략과 기술 혁신이 공개되었습니다.
신규 AI 칩 'Trainium2' 기반의 AI 슈퍼컴퓨터 ‘울트라서버’
*출처 : AWS
AWS는 이번 re:Invent 2024에서 자체 개발한 AI 칩 ‘트레이니움2(Trainium2)’를 탑재한 슈퍼컴퓨터 ‘울트라서버(UltraServer)’를 공개하며, AI 모델 학습과 추론 성능을 획기적으로 향상시킬 차세대 인프라를 선보였습니다. 트레이니움2는 AWS가 직접 설계한 AI 전용 칩으로, 기존 모델 대비 연산 속도는 최대 4배 향상되었으며, 전력 효율성도 2배 개선되었습니다. 이 칩은 AWS의 AI 워크로드에 최적화된 설계를 적용하여, 기업이 보다 효과적으로 대규모 AI 모델을 학습할 수 있도록 지원합니다.
울트라서버는 AI 학습을 위한 AWS의 핵심 인프라로 자리 잡을 전망입니다. 64개의 트레이니움2 칩을 하나의 서버 노드로 통합하여 기존 EC2 AI 서버 대비 5배 높은 컴퓨팅 용량과 10배 더 큰 메모리를 제공하는 것이 특징입니다. AWS는 이를 통해 AI 모델을 학습하는 기업들이 더욱 빠르고 효율적인 AI 개발 환경을 조성할 수 있도록 지원할 계획입니다.
초대규모 AI 인프라 프로젝트 ‘레이니어(Rainier)’
*출처 : AWS 공식 유튜브
AWS는 이번 행사에서 AI 연구 및 훈련을 위한 세계 최대 규모의 AI 클러스터 구축 프로젝트 ‘레이니어(Rainier)’를 발표했습니다. 이 프로젝트는 AI 모델 개발 전문기업 앤트로픽(Anthropic)과 협력하여 수십만 개의 트레이니움2 칩을 활용한 초대형 AI 학습 클러스터를 구축하는 것이 목표입니다.
AWS는 레이니어 프로젝트를 통해 엔비디아 GPU에 대한 의존도를 줄이고, 독자적인 AI 인프라 경쟁력을 확보하려는 전략을 추진하고 있습니다. 이 클러스터는 AI 학습 성능을 극대화하면서 비용 효율성을 높이는 것을 주요 목표로 삼고 있으며, 2025년까지 완공될 예정입니다. 완공 후에는 AI 훈련을 위한 세계 최대 규모의 클라우드 기반 AI 컴퓨팅 리소스를 갖출 것으로 기대됩니다.
또한, 앤트로픽은 AWS의 트레이니움2 인프라를 활용해 차세대 AI 모델 ‘Claude(클로드)’ 를 훈련할 계획입니다. Claude는 오픈AI의 GPT 모델과 경쟁할 수 있는 대규모 생성형 AI 모델로 평가받고 있으며, AWS의 강력한 AI 인프라를 기반으로 더욱 향상된 성능을 기대할 수 있습니다.
생성형 AI에 최적화된 AWS의 AI 인프라 혁신
*출처 : AWS 공식 유튜브
AWS는 AI 모델 개발과 학습을 위한 강력한 인프라를 제공하는 것뿐만 아니라, 데이터센터의 전력 효율성과 냉각 시스템을 최적화하여 AI 워크로드를 더욱 효과적으로 지원하고 있습니다. 이를 위해 트레이니움2 칩을 탑재한 AI 슈퍼컴퓨터를 운영할 수 있도록 AI 최적화 데이터센터를 설계하고, 에너지 사용 효율성을 46% 개선한 냉각 솔루션을 도입했습니다. 특히, AI 서버의 고밀도 연산 칩을 보다 효과적으로 냉각하기 위해 액체-칩(liquid-to-chip) 냉각 기술을 적용하여, 기존 공랭식 방식 대비 전력 소비를 대폭 줄이고 안정성을 높였습니다.
또한, AWS는 지속 가능한 AI 컴퓨팅 환경을 구축하기 위해 데이터센터 인프라에서도 친환경적인 요소를 적극 도입하고 있습니다. 예를 들어, 데이터센터 건물 외피의 콘크리트 내 탄소 포집량을 업계 평균 대비 최대 35%까지 줄였으며, 백업 발전기를 재생 디젤로 운영하여 온실가스 배출량을 최대 90%까지 감축하는 등 다양한 환경 보호 조치를 적용하고 있습니다. 이를 통해 기업들이 보다 지속 가능한 방식으로 클라우드 인프라를 활용할 수 있도록 지원하고 있으며, 친환경적인 AI 인프라 구축에도 앞장서고 있습니다.
AWS의 첨단 AI 모델 ‘노바(Nova)’
*출처 : Fierce Network
AWS 리인벤트 2024에서 가장 주목받은 발표 중 하나는 아마존의 첨단 AI 모델 ‘노바(Nova)’였습니다. AWS의 CEO인 앤디 재시(Andy Jassy)는 키노트 세션에서 노바를 공개하며, 이 모델이 업계 최고 수준의 성능을 제공하면서도 비용 효율성을 극대화한 AI 모델이라고 강조했습니다. AWS는 이번 발표를 통해 AI 연구개발(R&D)뿐만 아니라 실용적인 AI 기술을 보다 효과적으로 기업과 소비자에게 제공하는 데 초점을 맞추고 있음을 분명히 했습니다.
노바는 텍스트, 이미지, 오디오, 동영상 등 다양한 데이터를 동시에 처리할 수 있는 멀티모달 AI 모델로, GPT-4 및 구글의 제미나이(Gemini)와 경쟁할 수 있는 성능을 갖추고 있습니다. 특히, 노바는 AWS 클라우드 환경에서 최적화된 성능을 제공하도록 설계되어, 보다 빠르고 비용 효율적인 AI 활용이 가능해졌습니다. AWS는 노바가 업계 최고 수준의 성능을 제공하면서도 기존 AI 모델 대비 비용을 최대 75% 절감할 수 있다고 밝혔으며, 이를 통해 기업들은 AI 기반 서비스의 개발 및 운영 비용을 크게 줄이고 AI 활용 범위를 확장할 수 있게 되었습니다.
AWS는 이번 행사에서 다양한 용도에 맞춰 최적화된 6종의 노바 AI 모델을 공개했습니다. 노바 마이크로(Nova Micro)는 텍스트 기반의 초경량 모델로 빠른 응답 속도와 낮은 지연 시간을 제공하며, 노바 라이트(Nova Lite)와 노바 프로(Nova Pro)는 텍스트, 이미지, 비디오 등을 처리할 수 있는 멀티모달 모델로 고급 AI 애플리케이션에 활용될 수 있습니다. 특히, 2025년 초 출시 예정인 노바 프리미어(Nova Premier)는 가장 강력한 멀티모달 AI 모델로 기대를 모으고 있으며, 스튜디오 품질의 이미지 생성을 위한 노바 캔버스(Nova Canvas)와 최첨단 동영상 생성 모델인 노바 릴(Nova Reel)도 함께 발표되었습니다. 이 모델들은 AWS의 생성형 AI 애플리케이션 개발 플랫폼인 아마존 베드록(Amazon Bedrock)에서 독점적으로 이용 가능하며, API 최적화를 통해 짧은 지연 시간과 미세 조정(fine-tuning) 기능을 제공합니다. 이를 통해 개발자들은 AI 모델을 쉽고 빠르게 애플리케이션에 적용할 수 있으며, 기업들은 보다 효과적인 AI 서비스를 개발할 수 있습니다.
한편, 최근 시장을 강타한 딥시크 쇼크 이후 AWS는 Bedrock과 Sagemaker에서 제공 가능한 LLM 언어 모델에 딥시크 R1를 추가하겠다고 밝혔습니다. AWS는 고객 환경에 최적화된 언어 조합을 활용하겠다고 발 빠른 대응에 나서는 한편, 기업 고객들의 안전한 데이터 활용을 우선시 하겠다는 방침을 덧붙였습니다. 최적의 언어 조합을 고객이 직접 선택해, 최신 AI 모델을 보다 비용 효율적으로 서비스한다는AWS AI전략이 기업 고객들에게 매력적으로 다가가고 있습니다.
AWS의 AI 전략 – 실용성과 경제성 강화
*출처 : AWS 공식 유튜브
아마존은 노바 모델을 단순한 기술적 혁신이 아니라, 비즈니스의 실질적인 문제 해결을 위한 AI 모델로 활용하는 데 집중하고 있습니다. 앤디 재시는 “세계 최고 수준의 AI 체스 플레이어를 만드는 것보다, 개인화된 추천 시스템을 개선하고, 물류 최적화를 통해 상품을 더 빠르게 배송할 수 있도록 하는 것이 중요하다”고 강조하며, AWS가 AI를 연구 중심이 아닌 기업의 실질적인 운영과 서비스 혁신에 최적화된 모델로 개발하고 있음을 시사했습니다.
AWS는 노바 AI 모델의 성능을 극대화하기 위해 차세대 AI 칩 ‘트레이니움3(Trainium3)’를 함께 공개했습니다. 트레이니움3는 3나노미터 공정으로 제작된 AWS 최초의 반도체로, 이전 세대 칩 대비 최대 40% 높은 에너지 효율성을 제공합니다. 또한, 여러 개의 칩을 묶어 구축하는 ‘울트라서버(UltraServer)’는 기존 트레이니움2 기반 서버 대비 4배 향상된 성능을 발휘합니다. 이를 통해 노바 모델을 활용하는 기업들은 보다 강력한 연산 능력을 확보할 수 있습니다.
AWS는 리인벤트 2024에서 AI 모델 개발과 인프라 혁신을 통해 기업들에게 보다 실용적이고 경제적인 AI 솔루션을 제공하는 전략을 명확히 했습니다. 노바 모델은 성능뿐만 아니라 비용 절감 효과까지 고려한 AI 모델로, 기존 AI 모델 대비 75% 저렴한 운영 비용을 제공합니다. AWS는 AI 모델을 단순한 기술적 성과로 보는 것이 아니라, 기업의 실제 비즈니스 운영에 활용될 수 있도록 최적화된 AI 모델을 제공하는 것에 집중하고 있습니다.
이번 노바 AI 모델의 발표는 AI 시장에서 AWS의 입지를 더욱 강화하는 계기가 되었습니다. 현재 AI 모델 시장에서는 오픈AI의 GPT-4, 구글의 제미나이(Gemini), 메타의 라마(LLaMA) 등 강력한 경쟁자들이 존재하지만, AWS는 강력한 클라우드 인프라, 비용 절감 효과, 실용성 강화라는 차별화된 전략을 통해 경쟁력을 높이고 있습니다. AWS가 발표한 노바 AI 모델은 기업들이 보다 쉽게 AI 기술을 도입하고, 실제 비즈니스에 적용할 수 있도록 지원하는 혁신적인 모델로 평가받고 있으며, 향후 AWS가 AI 시장에서 어떤 추가적인 혁신을 이어갈지 주목할 필요가 있습니다.
SW 개발 생산성 혁신을 위한 다양한 생성형 AI 도구 제공
이번에 공개된 신규 서비스에는 IT 개발자들이 열광할 법한, SW 개발 생산성 혁신을 위한 새로운 도구들이 포함되었습니다.
AI 기반 SW 개발을 위한 통합 플랫폼 차세대 SageMaker가 출시되었습니다. 차세대 SageMaker는 데이터 통합, 처리, 분석, SW 개발에 이르는 모든 과정을 통합 UI 환경으로 제공해, 다양한 페르소나(데이터 분석가, AI 개발자, SW 개발자 등)의 편의성을 극대화하였습니다. 특히, 차세대 SageMaker는 기업의 민감한 정보 활용을 위한 Data & AI Governance를 포함하고 있어 대형 기업 고객들의 관심이 높습니다.
*출처: AWS
또한, 생성형 AI 코딩 도구인 Amazon Q Developer의 성능을 대폭 향상해 업계의 이목을 끌었습니다. 이번에 신규 공개된 내용에는 에이전트를 활용한 대화형 기능 개발, 유닛테스트 생성, 문서화 지원, 코드리뷰 기능이 포함되었습니다. AWS는 개발자들의 업무 생산성을 극대화해, SW 개발 품질 향상에 혁신을 기대한다고 밝혔습니다.
AI 인프라 구축은 기업 경쟁력 강화를 위한 필수 요소입니다
AI 기술이 빠르게 발전하면서, 기업들은 경쟁력을 확보하기 위해 강력한 AI 인프라를 갖추는 것이 필수적인 과제가 되었습니다. 특히, 생성형 AI의 확산과 대규모 AI 모델 학습을 위한 인프라 수요가 급증함에 따라, 기업들은 보다 효율적이고 확장성이 뛰어난 AI 환경을 구축하는 것이 중요해지고 있습니다. AWS가 이번 리인벤트 2024에서 발표한 차세대 AI 인프라 혁신은 이러한 변화를 주도하며, AI 모델 학습과 운영의 패러다임을 변화시키고 있습니다.
AI 인프라 구축은 단순히 최신 기술을 도입하는 것이 아니라, 기업의 비즈니스 전략과 연계하여 최적의 AI 환경을 설계하는 과정입니다. 이를 위해서는 클라우드 인프라, 고성능 컴퓨팅, AI 모델 학습 환경, 데이터 관리 및 보안 등 다양한 요소를 고려해야 하며, 각 기업의 산업군과 목표에 맞춘 맞춤형 인프라 구축이 필요합니다.
SK㈜ C&C는 AI 인프라 구축에 대한 풍부한 경험과 기술적 역량을 바탕으로, 기업들이 AI 기술을 효과적으로 활용할 수 있도록 지원하고 있습니다. AWS와 같은 글로벌 클라우드 기업들이 제공하는 첨단 AI 인프라를 기반으로, 기업별 요구사항에 맞춘 최적의 AI 환경을 설계하고 운영할 수 있도록 컨설팅과 솔루션을 제공합니다. 이를 통해 SK㈜ C&C는 기업들이 AI 인프라를 보다 효과적으로 도입하고 활용할 수 있도록 돕는 AI 인프라 서비스 프로바이더로서의 역할을 강화할 계획입니다.
AI가 비즈니스의 핵심 경쟁력이 되는 시대, 기업들이 AI 인프라 구축을 고민하고 있다면, SK㈜ C&C의 노하우와 경험을 바탕으로 최적의 AI 인프라 전략을 수립하고, 효율적인 AI 환경을 구축하는 것이 경쟁력 강화를 위한 핵심 열쇠가 될 것입니다.
컨설팅부터 비즈니스 모델 발굴까지
Digital One, For The Next | SK㈜ C&C
#AWS #리인벤트 #AI인프라 #클라우드 #트레이니움2 #울트라서버 #노바AI