검색결과
-
GMI 클라우드, 온디맨드 인스턴스 엔비디아 GPU 액세스 가속화GMI 클라우드(GMI Cloud)가 엔비디아 GPU에 대한 액세스를 가속화하고 있다. 오늘부터 제공되는 새로운 온디맨드 클라우드 컴퓨팅 서비스는 AI를 활용하고 프로토타이핑에서 생산까지 가능성을 타진하는 데 진지하게 임하고 있는 기업들을 위해 만들어졌다. 사용자는 GMI 클라우드의 온디맨드 GPU 컴퓨팅 리소스에 거의 즉각적으로 액세스할 수 있다. 현재 AI 컴퓨팅 파워에 대한 수요가 급증함에 따라 기업들은 접근 방법에서 전략적이 되어야 한다. 빠르게 발전하는 지형 속에서 조직들은 25~50%의 계약금을 지불하고 3년 계약을 체결해야만 6~12개월 동안 GPU 인프라에 액세스할 수 있다는 약속을 받는다. AI의 변화로 인해 기업들은 보다 유연한 컴퓨팅 파워를 필요로 하는 상황에 내몰렸다. 리얼텍 세미컨덕터스(Realtek Semiconductors)(TPE: 2379) 및 GMI 테크놀로지스(GMI Technologies)(TPE: 3312)는 물론 대만의 강력한 공급망 에코시스템과의 연계를 활용하여 GMI 클라우드(GMI Cloud)는 더 빠른 배포와 더 높은 운영 효율성을 보장할 수 있다. 물리적으로 대만에 존재하기 때문에 비 대만 GPU 공급업체와 비교해 GPU 인도 시간이 수개월에서 며칠로 단축된다. GMI 클라우드는 이 시장에서 가장 경쟁력 있는 신규 진입자가 될 전망이다. GMI 클라우드 설립자 겸 최고경영자 알렉스 예(Alex Yeh)는 “우리의 임무는 즉각적이고 효율적인 GPU 클라우드를 통해 인류가 AI 포부를 실현할 역량을 강화하는 것”이라며 “우리는 단순히 클라우드를 구축하는 것이 아니라 AI 시대의 근간을 만들고 있으며, GMI 클라우드는 개발자와 데이터 과학자가 엔비디아 GPU를 활용하는 방식과 모든 인류가 AI에서 혜택을 얻는 방식을 혁신하는 데 전념하고 있다”고 밝혔다. 웹사이트: https://gmicloud.ai
-
슈나이더 일렉트릭, 엔비디아와 AI 데이터센터 인프라 최적화 위한 파트너십 체결슈나이더 일렉트릭이 인공지능(AI) 반도체 기업 엔비디아(NVIDIA)와 데이터센터 인프라 최적화 및 디지털 트윈 기술 기반 마련을 위한 파트너십을 체결했다. AI 애플리케이션이 산업 전반에 걸쳐 주목을 받고 있는 동시에, 기존 컴퓨팅보다 더 많은 리소스에 대한 수요가 높아지며 처리 능력에 대한 필요성이 기하급수적으로 증가하고 있다. 특히 데이터센터 설계와 운영이 눈에 띄게 변화하고 복잡해지면서, 업계에서는 운영의 효율성과 확장성을 모두 갖춘 안정적인 데이터센터 시스템을 신속하게 구축하고 운영하기 위해 노력하고 있다. 이번 파트너십을 통해 슈나이더 일렉트릭은 엔비디아의 첨단 AI 기술과 자사의 데이터센터 인프라에 대한 전문성을 바탕으로 데이터센터 레퍼런스 디자인을 최초로 출시해, 업계 전반에 공개할 예정이다. 이는 데이터센터 에코시스템 내 AI 배포 및 운영의 기준을 재정의해 업계 발전의 중요한 이정표가 될 것으로 전망된다. 슈나이더 일렉트릭은 데이터처리, 엔지니어링 시뮬레이션, 전자 설계 자동화 등을 위해 구축된 엔비디아의 가속 컴퓨터 클러스터에 최적화된 데이터센터 레퍼런스 디자인을 소개할 예정이다. 해당 디자인은 특히 고밀도 클러스터를 위한 간략 시운전과 안정적인 운영을 보장하는 고전력 분배, 액체 냉각 시스템 및 제어 기능을 구현하는데 중점을 뒀다. 슈나이더 일렉트릭은 이번 협력으로 AI 솔루션을 데이터센터 인프라에 원활하게 통합하고, 효율적이고 안정적인 수명 주기를 보장하는데 필요한 도구 및 리소스를 제공하는 것을 목표로 한다고 밝혔다. 슈나이더 일렉트릭이 제공하는 데이터센터 레퍼런스 디자인은 파트너, 엔지니어 및 기업이 기존 데이터센터 운영에 참고할 수 있으며, 고밀도 AI 서버 및 액체 냉각AI 클러스터에 최적화된 새로운 데이터센터를 구축하는데도 활용할 수 있다. 엔비디아의 하이퍼스케일 및 HPC 부분 부사장 이안 벅(Ian Buck)은 “슈나이더 일렉트릭과의 협력을 통해 우리는 차세대 엔비디아 가속 컴퓨팅 기술을 사용해 AI 데이터센터 설계를 제공하게 됐다”며 “이는 조직이 AI의 잠재력을 활용하고 산업 전반에 걸쳐 혁신과 디지털 전환을 추진하는데 필요한 인프라는 제공한다”고 설명했다. 또한 슈나이더 일렉트릭은 자회사인 아비바(AVEVA)의 디지털 트윈 플랫폼을 엔비디아 옴니버스(NVIDIA Omniverse)에 연결해 가상 시뮬레이션 및 협업을 위한 통합 환경을 제공할 예정이다. 이에 설계자, 엔지니어 및 데이터센터 운영자는 상호 원활한 협업을 할 수 있으며, 복잡한 시스템의 설계 및 구축을 가속화하는 동시에 출시 기간과 비용을 절감할 수 있다. 슈나이더 일렉트릭의 시큐어파워 사업부 데이터센터 비즈니스 총괄 부사장 판카즈 샤르마(Pankaj Sharma)는 “데이터센터 솔루션에 대한 슈나이더 일렉트릭의 전문성과 엔비디아의 AI 기술 리더십을 결합해 기업이 데이터 센터 인프라의 한계를 극복하고 AI의 잠재력을 최대한 활용할 수 있도록 도울 것”이라며 “엔비디아와의 협력을 통해 보다 효율적이고 지속가능한 미래를 만드는데 큰 기여를 할 수 있을 것이라 생각한다”고 말했다. 웹사이트: http://www.se.com/kr/ko
-
한국레노버, AMD 라이젠 스레드리퍼 프로 7000 WX 시리즈 탑재 ‘씽크스테이션 P8’ 출시한국레노버가 AMD와 엔비디아의 혁신적 컴퓨팅 아키텍처에 레노버의 탁월한 신뢰성과 혁신을 더한 ‘씽크스테이션 P8’ 데스크톱 워크스테이션을 출시했다. 씽크스테이션 P8은 5나노(nm) 공정 기반 젠4 아키텍처를 적용한 AMD 라이젠 스레드리퍼 프로 7000 WX 시리즈 프로세서를 탑재했다. 싱글 소켓 중 가장 높은 수인 최대 96코어, 192개 스레드를 지원하는 씽크스테이션 P8은 빌딩 정보 모델링(BIM) 워크플로, 소프트웨어 개발 프로젝트, 제품 생명주기 관리 등 데이터 집약도가 높은 업무뿐만 아니라 복잡한 렌더링 및 VFX 워크로드를 처리할 수 있는 미디어·엔터테인먼트 분야에도 이상적이다. 지난해 출시된 씽크스테이션 제품군과 동일하게 영국 럭셔리 스포츠카 브랜드 ‘애스턴마틴(Aston Martin)’과의 파트너십을 통해 디자인된 섀시를 적용했다. 세련되고 견고한 랙 최적화 섀시는 플래티넘 등급의 파워 옵션을 제공해 더욱 까다로운 확장 기능을 처리할 수 있다. 최대 3개의 엔비디아 RTX 6000 에이다(Ada) 제너레이션 및 AMD 라데온 프로 GPU를 지원해 대규모 언어 모델(LLM)을 사용하는 데이터 과학 및 생성형 AI, AI를 활용한 시각화 등 까다로운 AI 워크로드에 필요한 성능을 제공한다. 실시간 광선 추적, 동영상 렌더링, 시뮬레이션, 컴퓨터 지원 설계(CAD) 같은 그래픽 집약적 애플리케이션의 작업 시간 또한 줄일 수 있다. 탁월한 유연성과 확장성도 씽크스테이션 P8의 특장점이다. 연결 속도와 확장성을 높여주는 6개 PCI 5세대 슬롯을 포함, 총 7개 PCIe 슬롯을 제공한다. RAID 지원 M.2 PCIe 4세대 SSD는 최대 7개, 대용량 스토리지를 위한 HDD는 최대 3개, 옥타 채널을 지원하는 DDR5 메모리는 최대 1TB까지 장착 가능하다. 10기가바이트 이더넷을 내장해 네트워크 병목 현상을 해소했다. 사용자가 세부 사양을 최적의 구성요소로 직접 설정하고, 별도의 툴 없이도 구성품을 쉽게 교체 가능하다. 씽크스테이션 P8은 씽크스테이션 진단 소프트웨어를 통해 빌트인 하드웨어를 모니터링할 수 있다. 레노버 퍼포먼스 튜너는 ISV(독립 소프트웨어 공급업체) 애플리케이션의 최적화를 지원한다. 바이오스부터 클라우드에 이르는 종합적 보안을 제공하는 레노버 씽크쉴드(ThinkShield) 보안 서비스로 안전성을 높였다. 신규식 한국레노버 대표는 “워크플로가 복잡해지고 데이터 집약적인 작업이 늘면서 건축가, 엔지니어, 비주얼 아티스트, AI 모델 개발자 등의 전문가들은 강력하고 신뢰성 높은 워크스테이션을 찾고 있다”며 “강력한 성능, 탁월한 확장성을 제공하도록 설계된 씽크스테이션 P8은 가상현실(AR) 및 증강현실(VR) 콘텐츠 생성, 고급 AI 모델 개발 같은 전문 작업에 새로운 가능성을 열고 생성형 AI가 가져올 변화를 가속화할 것”이라고 전했다. 이어 “업계에서 가장 폭넓은 AMD 워크스테이션 포트폴리오로 엔트리 레벨부터 하이엔드급 성능이 필요한 고객까지 전방위에 걸쳐 지원할 것으로 기대된다”고 덧붙였다. 웹사이트: http://www.lenovo.com/kr/ko
-
데이터브릭스, 엔비디아 협력 확대..데이터 인텔리전스 플랫폼 데이터 AI 워크로드 가속화데이터브릭스(Databricks)가 엔비디아(NVIDIA)와의 협력을 확대하고 기술 통합을 강화한다고 밝혔다. 이러한 발표 사항은 엔비디아가 주최한 GTC 2024 컨퍼런스에서 공유되었으며, 양사는 데이터브릭스의 데이터 인텔리전스 플랫폼(Data Intelligence Platform)에서 데이터 및 AI 워크로드를 최적화하는 데 박차를 가할 계획이다. 이번 협력은 최근 엔비디아가 데이터브릭스 시리즈 I 투자에 참여한 것의 연장선이기도 하다. 알리 고드시(Ali Ghodsi) 데이터브릭스 공동창립자 겸 CEO는 “이번 파트너십 확장으로 엔비디아의 가속 컴퓨팅 및 소프트웨어를 통해 데이터브릭스의 워크로드를 가속화하고 고객에 보다 많은 가치를 제공할 수 있게 되어 기쁘다"며, “엔비디아는 분석 사용 사례에서 AI에 이르기까지 데이터브릭스의 기본 모델 이니셔티브를 다수 지원해 왔다. 쿼리 가속화를 위한 상호 협력을 통해 더 많은 기업에게 가치를 입증할 수 있을 것으로 기대한다”고 말했다. ▶엔드투엔드 AI 솔루션을 위한 GPU 지원 가속화 오늘날 조직은 데이터로 훈련되고 비즈니스와 도메인에 맞게 맞춤화된 생성형 AI 솔루션을 구축 및 커스터마이징하기 위해 데이터브릭스의 데이터 인텔리전스 플랫폼을 신속하게 도입하고 있다. 데이터브릭스 모자이크 AI와 엔비디아는 데이터브릭스의 엔드투엔드 플랫폼에서의 생성형 AI 모델 구축과 배포를 향상하기 위해 모델 훈련 및 추론 분야에서 협력할 방침이다. 데이터브릭스는 데이터 및 모델 전반에 대한 완벽한 제어와 거버넌스는 물론, 생성형 AI 솔루션을 구축, 테스트 및 배포하기 위한 포괄적인 툴 세트를 제공한다. 데이터브릭스 모자이크 AI는 생성형 AI 모델 훈련을 위해 대형 언어 모델(LLM) 개발에 최적화된 엔비디아 H100 텐서 코어 GPU(NVIDIA H100 Tensor Core GPU)를 사용한다. 이로써 모자이크 AI는 엔비디아 가속 컴퓨팅의 성능을 활용하고, 고객을 위해 LLM을 커스터마이징할 수 있는 효율적이며 확장 가능한 플랫폼을 제공할 수 있게 된다. 한편, 데이터브릭스는 모델 배포를 위해 스택 전반에서 엔비디아 가속 컴퓨팅 및 소프트웨어를 활용한다. 데이터브릭스 모자이크 AI 모델 서빙(Mosaic AI Model Serving)의 핵심 구성 요소는 최첨단 성능을 제공하고 솔루션의 비용 효율성, 확장성 및 성능을 보장하는 엔비디아 텐서RT-LLM(NVIDIA TensorRT-LLM) 소프트웨어다. 모자이크 AI는 텐서RT-LLM의 출시 파트너로서 엔비디아 팀과 긴밀한 기술 협력을 이어왔다. ▶엔비디아 가속 컴퓨팅을 통해 쿼리 성능을 향상하는 포톤(Photon) 데이터브릭스는 자사의 벡터화된 차세대 쿼리 엔진인 포톤에서 엔비디아 가속 컴퓨팅에 대한 기본적인(native) 지원을 제공하고, 이로써 고객의 데이터 웨어하우징 및 분석 워크로드의 속도와 효율성을 개선한다는 계획이다. 포톤은 업계 최고 수준의 가격 대비 성능과 총소유비용(TCO)을 자랑하는 데이터브릭스의 서버리스(serverless) 데이터 웨어하우스인 데이터브릭스 SQL(Databricks SQL)을 구동하고 있다. 데이터 쿼리 처리를 위해 GPU를 사용하는 데이터브릭스 고객이 늘어나는 가운데, 양사의 협력은 이러한 성장을 더욱 가속화할 것으로 기대된다. ▶데이터브릭스의 머신러닝 및 딥러닝 지원 데이터브릭스에서 머신러닝(ML)과 딥러닝은 중요한 워크로드다. 데이터브릭스 머신러닝은 엔비디아 GPU를 포함하는 사전 구축된 딥러닝 인프라를 제공하며, ML용 데이터브릭스 런타임에는 드라이버와 라이브러리 등 사전 구성된 GPU 지원이 포함되어 있다. 사용자는 이러한 툴을 통해 적합한 엔비디아 인프라를 기반으로 신속하게 작업을 시작할 수 있을 뿐만 아니라, 사용자 간 일관된 환경을 유지할 수 있다. 데이터브릭스는 3대 주요 클라우드에서 엔비디아 텐서 코어 GPU를 지원해, ML 워크로드를 위한 고성능 단일 노드 및 분산 훈련을 지원한다. 젠슨 황(Jensen Huang) 엔비디아 창립자 겸 CEO는 “AI 시대에서 기업이 보유하고 있는 데이터는 인텔리전스를 도출하는 데 필요한 매우 중요한 자산이다"라고 설명하며, “엔비디아와 데이터브릭스는 효율성을 개선해 더욱 우수한 인사이트와 결과를 얻고자 하는 기업을 위해 데이터 처리를 가속화하고, 이로써 AI의 개발과 배포를 향상할 수 있다"고 말했다.
-
스노우플레이크, 엔비디아 파트너십 풀스택 AI 플랫폼 제공스노우플레이크(Snowflake)가 엔비디아와의 파트너십을 강화한다고 발표했다. 인공지능(AI)을 활용해 기업 고객의 생산성을 높일 수 있도록 지원하는 것으로, 스노우플레이크의 데이터 기반과 안정성 높은 데이터 클라우드의 AI 기술을 풀스택 엔비디아 가속 플랫폼에 결합할 수 있게 된다. 양사는 AI의 생산성과 비즈니스 속도를 높이고 여러 산업군에 걸쳐 새로운 비즈니스 기회를 확대하도록 설계된 인프라와 컴퓨팅 기술을 결합해 안전하고 강력한 기능을 제공한다. 슈리다 라마스워미(Sridhar Ramaswamy) 스노우플레이크 CEO는 “데이터는 AI의 원동력으로, 효과적인 AI 전략 수립에 매우 중요하다. 스노우플레이크는 엔비디아와의 협력으로 신뢰할 수 있는 기업 데이터를 위한 안전하고 확장 가능하며 사용이 용이한 플랫폼을 제공하게 됐다”며 “특히 기술 전문성에 상관없이 모든 사용자가 AI를 사용할 수 있게 해 누구나 AI 기술 혜택을 얻도록 지원한다”고 말했다. 젠슨 황(Jensen Huang) 엔비디아 창립자 겸 CEO는 “기업 데이터는 비즈니스 인텔리전스를 확보할 수 있는 커스터마이징 AI 애플리케이션의 근간”이라며 “엔비디아 가속 컴퓨팅 및 소프트웨어를 스노우플레이크의 데이터 플랫폼에 적용함으로써 고객이 기업 전용의 생성형 AI 애플리케이션을 구축, 배포 및 관리할 수 있게 된다. 이로써 고객들은 AI를 현업에서 쉽게 도입해 사용할 수 있게 한다”고 설명했다. 지난해 6월, 스노우플레이크와 엔비디아가 엔비디아 네모(NeMo) 통합 기능을 확대한다고 발표한 바 있다. 이번에 강화된 파트너십에서 스노우플레이크는 자사 플랫폼에서 데이터 보안, 개인정보보호 및 거버넌스를 원활하게 유지하면서 직접 엔비디아의 네모 리트리버(NeMo Retriever)를 활용할 수 있게 된다. 네모 리트리버는 기업이 맞춤형 LLM을 기업 데이터에 연결할 수 있는 생성형 AI 마이크로 서비스다. 이를 기반으로 챗봇 애플리케이션의 성능과 확장성을 개선하고 스노우플레이크 코텍스(Snowflake Cortex, 프리뷰 공개)로 AI 애플리케이션을 구축한 400개 이상의 기업이 보다 빠르게 비즈니스 가치를 실현할 수 있도록 지원한다. 또한 딥 러닝 추론 애플리케이션에 짧은 지연 시간과 높은 처리량을 제공하는 엔비디아 텐서RT(TensorRT)를 활용할 수 있어 기업 고객의 LLM 기반 검색 기능이 향상될 것으로 기대된다고 말했다. 웹사이트: https://www.snowflake.com/?lang=ko
-
클레온, '엔비디아 GTC 2024' 디지털 휴먼 기술 공개클레온이 2024년 3월 18일부터 21일까지 진행되는 글로벌 AI 컨퍼런스인 ‘엔비디아 GTC’에서 최신 혁신 기술을 공개한다. 이번에 공개하는 기술은 인간과 같은 다양한 감정을 표현하고 대화가 가능한 ‘디지털 휴먼’으로, 엔비디아 기술을 기반으로 2년 이상 진행한 연구 개발의 결과물이다. 이 기술은 2024년 상반기 출시 예정인 클레온의 실시간 대화형 디지털 휴먼 채팅 솔루션인 ‘크리챗’에 적용된다. 크리챗은 유명인 IP와 클레온의 기술을 결합한 디지털 휴먼과 사용자와 음성 및 영상을 통해 실제와 같은 대화를 나눌 수 있는 앱이다. 클레온은 감정 데이터를 기반으로 자연스러운 표정과 움직임 구현에 주력하며 디지털 휴먼 기술의 선두에 서 왔다. 클레온은 특히 엔비디아 A2F (Audio2Face) 애플리케이션을 활용해 디지털 휴먼의 미묘한 감정 표현을 구현하는 데 성공했으며, 이외에도 엔비디아의 최첨단 GPU와 전문 기술을 활용해 이 분야에서 상당한 발전을 이뤘다. 클레온은 기술 발전을 통한 산업 혁신적인 스타트업 육성 프로그램인 ‘엔비디아 인셉션’의 멤버이기도 하다. 이 프로그램은 클레온의 감정 데이터를 기반으로 다양한 표정과 움직임을 표현하는 디지털 휴먼 개발을 위한 연구, 리소스 및 협업 혁신을 지원하고 있다. 사진 한 장과 30초 분량의 음성 데이터로 디지털 휴먼을 생성하는 클레온의 핵심 기술은 생성 AI 분야에서의 중요한 도약을 의미한다. 지난해 11월 클레온은 세계 최초로 ‘헤드스왑’ 기술을 상용화해 이를 자체 개발한 디지털 휴먼 영상 제작 솔루션인 ‘클론’에 완벽하게 통합하는데 성공했다. 헤드스왑은 사람의 얼굴을 포함한 전체 두상 이미지를 원하는 대상의 두상으로 교체하는 기술이다. 클레온 ‘헤드 스왑’ 기술의 핵심은 단 한 장의 얼굴 사진만으로 얼굴형, 머리카락, 피부 질감까지 얼굴 특징과 구조를 자동 인식하고, 이 정보를 바탕으로 고도의 정밀한 디지털 휴먼을 생성한다는 점이다. 이를 통해 디지털 휴먼 제작 시간과 비용을 크게 줄일 수 있다. 클레온이 엔비디아 GTC에서 그간의 연구 결실을 공개할 준비를 하면서 업계의 기대감이 커지고 있다. 엔터테인먼트, 교육, 상담 등 감정 표현이 가능한 디지털 휴먼에 대한 시장성은 점점 더 확대되고 있으며, 잠재력은 무궁무진하다. 웹사이트: https://www.klleon.io
-
씨이랩, NVIDIA GTC 2024에서 첨단 AI 기술 선보여씨이랩이 오는 3월 18일부터 21일까지 미국 캘리포니아주 산호세에서 열리는 세계 최대 AI 컨퍼런스인 ‘NVIDIA GTC (GPU Technology Conference) 2024’에 참가한다고 밝혔다. 씨이랩은 이번 GTC 2024에서 △AI 영상분석 서비스(VidiGo) △합성데이터 생성 솔루션(X-GEN) △GPU 툴링 솔루션(astrago) 등 3가지 주요 제품을 통해 AI 기술을 선보일 예정이다.첫 번째 제품 ‘VidiGo’는 클라우드 기반 AI 영상분석 서비스로, 영상을 시청하지 않고도 영상의 핵심 내용을 정확하게 요약하고 사용자가 원하는 영상 장면을 신속히 검색한다. 이를 통해 영상 속 인물, 객체, 대사 등을 데이터베이스화해 미디어 산업 분야의 업무 효율성을 크게 향상한다. 두 번째 제품 ‘X-GEN’은 AI 모델 학습을 위한 합성데이터(Synthetic data)를 생성하는 솔루션이다. 특히 재난이나 국방 등 특수한 분야에서는 AI 학습을 위한 데이터가 절대적으로 부족한데, 이를 합성데이터로 대체 제공해 AI 학습 성능을 극대화한다. 씨이랩은 ‘X-GEN’을 엔비디아 Omniverse와 연동해 디지털 트윈 사업에 적용하며 3D 협업과 시뮬레이션을 진행한다. 씨이랩은 ‘X-GEN’과 Omniverse를 활용해 2023년부터 글로벌 기업의 제조 공장을 디지털 트윈을 통해 구축하는 프로젝트를 주도하고 있다. 마지막으로 씨이랩은 GPU의 활용 능력을 높여주는 신제품 ‘astrago’를 GTC 2024를 통해 첫 공개한다. ‘astrago’에는 AI 학습시간 예측 기술과 AI 모델 관리 기술이 탑재됐다. GPU의 활용 효율성을 극대화해 값비싼 GPU 사용 비용을 절감할 수 있다.채정환 씨이랩 부사장은 “GTC 2024를 통해 씨이랩의 첨단 AI 기술과 제품을 글로벌 시장에 선보이며 AI 기술의 산업분야별 활용 가능성을 넓히는 데 기여하길 기대한다”고 말했다. 웹사이트: http://www.xiilab.com
-
MSI, AI 워크스테이션 노트북 ‘크리에이터 프로’ 컴퓨존 단독 론칭엠에스아이코리아는 AI 전용 워크스테이션 노트북 ‘크리에이터 프로 Z17 HX Studio’를 컴퓨터 및 전자제품 전문 쇼핑몰 컴퓨존에 단독 론칭했다고 밝혔다. 이번에 출시된 MSI ‘크리에이터 프로 Z17 HX Studio’는 건축, 인테리어, 디자인, 3D 모델링 등 다양한 분야에서 안정적인 작업이 가능한 워크스테이션 노트북이다. 주요 산업 분야의 소프트웨어 프로그램에서 ISV (Independent Software Vendor) 인증을 받아 크리에이티브 작업 시 최적화된 성능을 자랑한다. MSI ‘크리에이터 프로 Z17 HX Studio’는 최대 24개의 코어와 5.5GHz의 높은 클럭 속도를 갖춘 인텔 코어 i9-13950HX 프로세서 및 AI 연산에 특화된 RTX 3000 에이다 제너레이션(Ada Generation) 고성능 그래픽을 탑재해 복잡한 AI 작업도 빠르고 효율적으로 처리할 수 있다. 또한 크리에이터를 위한 엔비디아 스튜디오(Studio) 기술을 지원해 뛰어난 호환성과 높은 수준의 안정성을 제공한다. 아울러 △17인치 대화면 △QHD+(2560x1600) 고해상도 △165Hz 고주사율 △100% DCI-P3 색 영역 등을 지원하는 정밀한 디스플레이는 생생하고 선명한 화면을 자랑한다. 터치스크린 기능과 펜 입력을 지원해 디자인 작업 시 편리함을 더했다. 특히 전용 MSI 펜은 4096단계의 압력과 166° 각도를 감지해 정교한 필기가 가능하며, 노트북 좌측면에 내장된 자석으로 부착할 수 있어 휴대가 간편하다. MSI ‘크리에이터 프로 Z17 HX Studio’는 19mm의 얇은 두께로 탁월한 휴대성을 제공한다. 이동 중에도 오랫동안 사용할 수 있는 90Whr 대용량 배터리와 PD 충전을 지원하는 썬더볼트 4로 언제 어디서든 충전 가능하다. 또한 각 키 별 색상과 조명 효과 선택이 가능한 Per-Key RGB 키보드는 1.5mm 키 트래블로 뛰어난 타이핑 경험과 편안한 사용감을 갖췄다. 웹사이트: http://kr.msi.com
-
스노우플레이크, Mistral AI,스노우플레이크 코텍스 5개 국어 LLM 모델 지원스노우플레이크(Snowflake)가 프랑스의 AI 솔루션 제공업체 Mistral AI와 파트너십을 체결했다고 발표했다. 이번 파트너십은 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스(Snowflake Ventures)의 Mistral AI로의 시리즈 A 투자를 포함한다. 양사의 협력으로 스노우플레이크 고객은 Mistral AI가 가장 최근에 선보인 플래그십 대규모 언어 모델(Large Language Model, LLM)인 ‘미스트랄 라지(Mistral Large)’를 스노우플레이크 데이터 클라우드 플랫폼에서 적용할 수 있다. 또한 Mistral AI의 최초 기본 모델인 ‘미스트랄 7B’와 오픈 소스 모델 ‘믹스트랄(Mixtral) 8x7B’에도 액세스할 수 있다. ‘미스트랄 라지’는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고, 한 번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있으며, △프랑스어 △영어 △독일어 △스페인어 △이탈리아어 5개 언어 처리가 가능하다. 기존 생성형 AI 모델과 ‘대규모 다중 작업 언어 이해 측정(Measuring massive multitask language understanding, MMLU)’을 비교함에 있어서는 뛰어난 성능을 입증하면서 챗GPT-4에 이어 API를 통해 사용 가능한 모델 중 2위를 차지하기도 했다. ‘미스트랄 7B’는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이다. ‘믹스트랄 8x7B’는 대부분의 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다.Mistral AI의 모델들은 ‘스노우플레이크 코텍스(Snowflake Cortex)’에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안과 개인정 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다. 스노우플레이크 슈리다 라마스워미(Sridhar Ramaswamy) 신임 CEO는 “스노우플레이크는 Mistral AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 됐다”며 “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인정보보호는 강화하고, 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 말했다. Mistral AI의 공동 창립자 겸 CEO 아르튀르 멘슈(Arthur Mensch)는 “스노우플레이크의 보안, 개인정보보호 및 거버넌스에 대한 원칙은 누구나 어디에서든 혁신적인 AI를 활용할 수 있도록 하겠다는 Mistral AI의 포부와 맞아떨어진다. Mistral AI는 전 세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능·고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”며 “스노우플레이크 데이터 클라우드에서 Mistral AI의 모델을 활용함으로써 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 말했다. 스노우플레이크 지난해 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한 메타(Meta)의 ‘라마2(Llama 2)’ 모델을 시작으로 검색증강생성(Retrieval-Augmented Generation, RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 Mistral AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면의 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다.복잡한 GPU 관리 대신 사용자의 AI 활용도를 넓히기 위해 엔비디아(NVIDIA)와도 적극적으로 협력하고 있다. 스노우플레이크 코텍스는 엔비디아 트라이튼 추론 서버(Triton Inference Server)를 활용해 풀스택 가속 컴퓨팅 플랫폼을 제공하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되며 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 Mistral AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿(Streamlit)의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 스노우플레이크는 고객, 데이터 클라우드 생태계는 물론, 기술 커뮤니티 전체에 대한 AI 혁신을 위해 노력하고 있다. 이에 스노우플레이크는 최근 개발자, 연구원 및 조직이 개방적이고 안전하며 책임감 있는 AI를 개발하기 위한 국제 커뮤니티인 ‘AI 얼라이언스(AI Alliance)’에 가입했다. AI 얼라이언스를 통해 스노우플레이크는 생성형 AI가 가져올 도전과제와 기회에 대해 전방위적이고 개방적으로 대응하며 누구나 AI 기술을 활용하고 혜택을 얻을 수 있도록 지속적으로 노력할 계획이다. 웹사이트: https://www.snowflake.com/?lang=ko
-
에이수스, 새로운 슬림 앤 라이트 게이밍 노트북 ‘ROG 제피러스 G16 및 G14’ 출시에이수스(ASUS)가 전작 대비 새로워진 디자인과 함께 성능을 강화한 ROG 제피러스 G16 및 ROG 제피러스 G14를 출시했다. ROG 제피러스 G 시리즈는 우수한 성능에 휴대성을 겸비한 것이 특징인 게이밍 노트북으로, 2024년형 ROG 제피러스 G16 및 G14은 새로운 디자인과 최신 프로세서를 탑재해 성능 측면에서 한층 더 업그레이드됐다. ROG 제피러스 G16 및 G14는 각각 16인치, 14인치의 ROG 네뷸라 디스플레이를 장착해 100% DCI-P3의 넓은 색 영역과 팬톤 인증의 색 정확도를 갖췄으며, 돌비 비전 및 베사(VESA) 디스플레이 HDR 500 트루 블랙 인증을 받아 섬세한 명암 표현력을 제공한다. 일부 모델은 ROG 노트북 라인업 최초로 OLED 디스플레이를 탑재해 더 생생하고 선명한 비주얼을 구현한다. 500니트의 밝기, 최대 0.2㎳의 빠른 응답속도와 함께 각각 120㎐ 및 240㎐의 주사율을 지원하며, 지연 현상을 최소화하는 엔비디아 지싱크(G-SYNC) 기능으로 더 부드러운 화면 재생이 가능하다. 이에 더해 최신 사양의 고성능 프로세서를 탑재해 게이밍뿐만 아니라 크리에이티브, 라이프스타일 등 다양해진 활용도와 더 강력해진 성능을 자랑한다. ROG 제피러스 G16은 신경망 처리 장치(NPU)가 내장된 인텔 코어 울트라 9 프로세서를 지원해 전력 대비 효율적인 AI 성능을 발휘하며, 최대 지포스 RTX 4090 GPU를 탑재해 압도적인 퍼포먼스를 발휘한다. ROG 제피러스 G14는 AI에 특화한 AMD 라이젠 9 8945HS 또는 7 8845HS 프로세서와 최대 지포스 RTX 4070 GPU를 장착, 고사양의 최신 게임과 무거운 창작용 소프트웨어도 빠르고 쾌적하게 실행한다. 두 제품 모두 특화된 AI 텐서 코어를 갖춘 지포스 RTX 40 시리즈 GPU를 지원해 게이밍 시 몰입감 넘치는 그래픽을 제공하며 영상 편집, 화상 회의 등의 작업 수행 시에도 AI 기능을 통해 향상된 사용자 경험을 선사한다. 디자인적 요소로는 노트북 상판에 시그니처 슬래시 LED 조명이 탑재돼 모던한 느낌을 더했으며, 알루미늄으로 제작된 본체는 △플래티넘 화이트 △이클립스 그레이 두 가지의 세련된 색상 중 선택할 수 있다. ROG 제피러스 G16은 최대 1.95㎏ 및 1.7㎝, ROG 제피러스 G14는 약 1.5㎏ 및 1.59㎝로, 슬림한 보디와 가벼운 무게로 높은 휴대성을 갖췄다. 여기에 30분 만에 50%까지 고속 충전되는 배터리와 와이파이 6E의 초고속 연결성으로 이동성을 극대화했다. 돌비 애트모스로 구동되는 6개의 스피커는 실감 나는 사운드를 제공하며, AI 노이즈 캔슬링 기능 등의 편의 기능도 지원한다. 기본 1년의 보증 기간 내 1회에 한해 소비자 과실에 따른 파손 수리비 전액을 지원하는 ‘에이수스 퍼펙트 워런티 서비스’를 지원하며, 제품은 ASUS 공식 스토어, 쿠팡, 11번가, G마켓의 온라인 판매처와 더불어 하이마트 월드타워점 및 잠실점, 일렉트로마트 영등포 타임스퀘어점 및 고양점에서 직접 체험해보고 구매할 수 있다. 웹사이트: https://asus.com