검색결과
-
슈나이더 일렉트릭, 엔비디아와 AI 데이터센터 인프라 최적화 위한 파트너십 체결슈나이더 일렉트릭이 인공지능(AI) 반도체 기업 엔비디아(NVIDIA)와 데이터센터 인프라 최적화 및 디지털 트윈 기술 기반 마련을 위한 파트너십을 체결했다. AI 애플리케이션이 산업 전반에 걸쳐 주목을 받고 있는 동시에, 기존 컴퓨팅보다 더 많은 리소스에 대한 수요가 높아지며 처리 능력에 대한 필요성이 기하급수적으로 증가하고 있다. 특히 데이터센터 설계와 운영이 눈에 띄게 변화하고 복잡해지면서, 업계에서는 운영의 효율성과 확장성을 모두 갖춘 안정적인 데이터센터 시스템을 신속하게 구축하고 운영하기 위해 노력하고 있다. 이번 파트너십을 통해 슈나이더 일렉트릭은 엔비디아의 첨단 AI 기술과 자사의 데이터센터 인프라에 대한 전문성을 바탕으로 데이터센터 레퍼런스 디자인을 최초로 출시해, 업계 전반에 공개할 예정이다. 이는 데이터센터 에코시스템 내 AI 배포 및 운영의 기준을 재정의해 업계 발전의 중요한 이정표가 될 것으로 전망된다. 슈나이더 일렉트릭은 데이터처리, 엔지니어링 시뮬레이션, 전자 설계 자동화 등을 위해 구축된 엔비디아의 가속 컴퓨터 클러스터에 최적화된 데이터센터 레퍼런스 디자인을 소개할 예정이다. 해당 디자인은 특히 고밀도 클러스터를 위한 간략 시운전과 안정적인 운영을 보장하는 고전력 분배, 액체 냉각 시스템 및 제어 기능을 구현하는데 중점을 뒀다. 슈나이더 일렉트릭은 이번 협력으로 AI 솔루션을 데이터센터 인프라에 원활하게 통합하고, 효율적이고 안정적인 수명 주기를 보장하는데 필요한 도구 및 리소스를 제공하는 것을 목표로 한다고 밝혔다. 슈나이더 일렉트릭이 제공하는 데이터센터 레퍼런스 디자인은 파트너, 엔지니어 및 기업이 기존 데이터센터 운영에 참고할 수 있으며, 고밀도 AI 서버 및 액체 냉각AI 클러스터에 최적화된 새로운 데이터센터를 구축하는데도 활용할 수 있다. 엔비디아의 하이퍼스케일 및 HPC 부분 부사장 이안 벅(Ian Buck)은 “슈나이더 일렉트릭과의 협력을 통해 우리는 차세대 엔비디아 가속 컴퓨팅 기술을 사용해 AI 데이터센터 설계를 제공하게 됐다”며 “이는 조직이 AI의 잠재력을 활용하고 산업 전반에 걸쳐 혁신과 디지털 전환을 추진하는데 필요한 인프라는 제공한다”고 설명했다. 또한 슈나이더 일렉트릭은 자회사인 아비바(AVEVA)의 디지털 트윈 플랫폼을 엔비디아 옴니버스(NVIDIA Omniverse)에 연결해 가상 시뮬레이션 및 협업을 위한 통합 환경을 제공할 예정이다. 이에 설계자, 엔지니어 및 데이터센터 운영자는 상호 원활한 협업을 할 수 있으며, 복잡한 시스템의 설계 및 구축을 가속화하는 동시에 출시 기간과 비용을 절감할 수 있다. 슈나이더 일렉트릭의 시큐어파워 사업부 데이터센터 비즈니스 총괄 부사장 판카즈 샤르마(Pankaj Sharma)는 “데이터센터 솔루션에 대한 슈나이더 일렉트릭의 전문성과 엔비디아의 AI 기술 리더십을 결합해 기업이 데이터 센터 인프라의 한계를 극복하고 AI의 잠재력을 최대한 활용할 수 있도록 도울 것”이라며 “엔비디아와의 협력을 통해 보다 효율적이고 지속가능한 미래를 만드는데 큰 기여를 할 수 있을 것이라 생각한다”고 말했다. 웹사이트: http://www.se.com/kr/ko
-
에버미디어, NVIDIA GTC에서 혁신적인 ‘ASVA’ 공개에버미디어(AVerMedia)가 3월 21일 미국 캘리포니아주 새너제이(산호세) 컨벤션 센터에서 온라인으로 개최된 글로벌 AI 컨퍼런스 ‘NVIDIA GTC’에서 그들의 최신 혁신인 ‘AVerAI 서비스 가치 축적 플랫폼(ASVA)’을 선보였다. 이 플랫폼은 AI 기술과 비즈니스 운영을 결합해 새로운 차원의 운영 효율성과 전략적 의사결정을 가능하게 한다. ASVA는 고급 하드웨어, 보드 지원 패키지(BSP), 그리고 혁신적인 소프트웨어 애플리케이션을 하나의 강력한 플랫폼으로 통합함으로써 다양한 산업 분야에서의 운영 효율성을 대폭 개선한다. 이번 GTC에서 에버미디어는 특히 스마트 소매 시나리오를 강조하며, NVIDIA Jetson Orin NX 시스템 온 모듈을 사용해 IP 카메라를 통한 실시간 AI 분석을 시연했다. 이 플랫폼은 생성 AI 기능을 포함해 사용자가 AI와의 대화를 통해 중요 데이터를 신속하게 접근할 수 있도록 지원한다. 이는 소매업체에 데이터 중심의 의사결정 도구를 제공하며, 맞춤형 쇼핑 추천과 예측 분석을 통한 재고 관리 최적화 등 스마트 소매 분야에서 혁신을 이끌고 있다. ASVA의 핵심에는 Allxon의 원격 엣지 AI 장치 관리 플랫폼이 포함돼 있다. 이 플랫폼은 기업이 AI/IoT 장치를 일괄적으로 관리할 수 있게 해 원격 모니터링, 구성 및 유지 관리를 간소화한다. 또한 생성 AI 보고 도구를 통해 실행 가능한 리포트를 제공함으로써 소매, 제조 등 중요한 부문에서 의사 결정을 강화한다. 에버미디어의 Braga Lai 개발 책임자는 “ASVA는 고급 AI 기능과 실질적인 비즈니스 애플리케이션 간의 격차를 해소하는 것을 목표로 한다”며 “AI를 더욱 직관적이고 영향력 있게 만드는 혁신적인 도구”라고 말했다. 에버미디어는 이번 NVIDIA GTC에서 ASVA의 실시간 데이터 분석 및 AI 추론 기능을 통해 특히 스마트 리테일 부문에서 예측적 유지관리, 재고 관리 간소화, 고객 경험 향상으로 업계에 혁명을 일으킬 것이라고 발표했다. 이와 함께 엣지 AI 컴퓨팅의 발전에 있어 중추적인 역할을 할 것임을 강조했다. ASVA가 AI 기술 환경을 어떻게 재구성하고 있는지에 대한 더 많은 정보는 에버미디어 공식 웹사이트에서 확인할 수 있다. 또한 제품 관련 문의 및 구매, 더 많은 성공 사례는 에버미디어의 한국 총판 ‘MDS테크’(https://smartstore.naver.com/nvidia_jetson)로부터 안내받을 수 있다. 웹사이트: https://www.avermedia.com/
-
데이터브릭스, 엔비디아 협력 확대..데이터 인텔리전스 플랫폼 데이터 AI 워크로드 가속화데이터브릭스(Databricks)가 엔비디아(NVIDIA)와의 협력을 확대하고 기술 통합을 강화한다고 밝혔다. 이러한 발표 사항은 엔비디아가 주최한 GTC 2024 컨퍼런스에서 공유되었으며, 양사는 데이터브릭스의 데이터 인텔리전스 플랫폼(Data Intelligence Platform)에서 데이터 및 AI 워크로드를 최적화하는 데 박차를 가할 계획이다. 이번 협력은 최근 엔비디아가 데이터브릭스 시리즈 I 투자에 참여한 것의 연장선이기도 하다. 알리 고드시(Ali Ghodsi) 데이터브릭스 공동창립자 겸 CEO는 “이번 파트너십 확장으로 엔비디아의 가속 컴퓨팅 및 소프트웨어를 통해 데이터브릭스의 워크로드를 가속화하고 고객에 보다 많은 가치를 제공할 수 있게 되어 기쁘다"며, “엔비디아는 분석 사용 사례에서 AI에 이르기까지 데이터브릭스의 기본 모델 이니셔티브를 다수 지원해 왔다. 쿼리 가속화를 위한 상호 협력을 통해 더 많은 기업에게 가치를 입증할 수 있을 것으로 기대한다”고 말했다. ▶엔드투엔드 AI 솔루션을 위한 GPU 지원 가속화 오늘날 조직은 데이터로 훈련되고 비즈니스와 도메인에 맞게 맞춤화된 생성형 AI 솔루션을 구축 및 커스터마이징하기 위해 데이터브릭스의 데이터 인텔리전스 플랫폼을 신속하게 도입하고 있다. 데이터브릭스 모자이크 AI와 엔비디아는 데이터브릭스의 엔드투엔드 플랫폼에서의 생성형 AI 모델 구축과 배포를 향상하기 위해 모델 훈련 및 추론 분야에서 협력할 방침이다. 데이터브릭스는 데이터 및 모델 전반에 대한 완벽한 제어와 거버넌스는 물론, 생성형 AI 솔루션을 구축, 테스트 및 배포하기 위한 포괄적인 툴 세트를 제공한다. 데이터브릭스 모자이크 AI는 생성형 AI 모델 훈련을 위해 대형 언어 모델(LLM) 개발에 최적화된 엔비디아 H100 텐서 코어 GPU(NVIDIA H100 Tensor Core GPU)를 사용한다. 이로써 모자이크 AI는 엔비디아 가속 컴퓨팅의 성능을 활용하고, 고객을 위해 LLM을 커스터마이징할 수 있는 효율적이며 확장 가능한 플랫폼을 제공할 수 있게 된다. 한편, 데이터브릭스는 모델 배포를 위해 스택 전반에서 엔비디아 가속 컴퓨팅 및 소프트웨어를 활용한다. 데이터브릭스 모자이크 AI 모델 서빙(Mosaic AI Model Serving)의 핵심 구성 요소는 최첨단 성능을 제공하고 솔루션의 비용 효율성, 확장성 및 성능을 보장하는 엔비디아 텐서RT-LLM(NVIDIA TensorRT-LLM) 소프트웨어다. 모자이크 AI는 텐서RT-LLM의 출시 파트너로서 엔비디아 팀과 긴밀한 기술 협력을 이어왔다. ▶엔비디아 가속 컴퓨팅을 통해 쿼리 성능을 향상하는 포톤(Photon) 데이터브릭스는 자사의 벡터화된 차세대 쿼리 엔진인 포톤에서 엔비디아 가속 컴퓨팅에 대한 기본적인(native) 지원을 제공하고, 이로써 고객의 데이터 웨어하우징 및 분석 워크로드의 속도와 효율성을 개선한다는 계획이다. 포톤은 업계 최고 수준의 가격 대비 성능과 총소유비용(TCO)을 자랑하는 데이터브릭스의 서버리스(serverless) 데이터 웨어하우스인 데이터브릭스 SQL(Databricks SQL)을 구동하고 있다. 데이터 쿼리 처리를 위해 GPU를 사용하는 데이터브릭스 고객이 늘어나는 가운데, 양사의 협력은 이러한 성장을 더욱 가속화할 것으로 기대된다. ▶데이터브릭스의 머신러닝 및 딥러닝 지원 데이터브릭스에서 머신러닝(ML)과 딥러닝은 중요한 워크로드다. 데이터브릭스 머신러닝은 엔비디아 GPU를 포함하는 사전 구축된 딥러닝 인프라를 제공하며, ML용 데이터브릭스 런타임에는 드라이버와 라이브러리 등 사전 구성된 GPU 지원이 포함되어 있다. 사용자는 이러한 툴을 통해 적합한 엔비디아 인프라를 기반으로 신속하게 작업을 시작할 수 있을 뿐만 아니라, 사용자 간 일관된 환경을 유지할 수 있다. 데이터브릭스는 3대 주요 클라우드에서 엔비디아 텐서 코어 GPU를 지원해, ML 워크로드를 위한 고성능 단일 노드 및 분산 훈련을 지원한다. 젠슨 황(Jensen Huang) 엔비디아 창립자 겸 CEO는 “AI 시대에서 기업이 보유하고 있는 데이터는 인텔리전스를 도출하는 데 필요한 매우 중요한 자산이다"라고 설명하며, “엔비디아와 데이터브릭스는 효율성을 개선해 더욱 우수한 인사이트와 결과를 얻고자 하는 기업을 위해 데이터 처리를 가속화하고, 이로써 AI의 개발과 배포를 향상할 수 있다"고 말했다.
-
클레온, '엔비디아 GTC 2024' 디지털 휴먼 기술 공개클레온이 2024년 3월 18일부터 21일까지 진행되는 글로벌 AI 컨퍼런스인 ‘엔비디아 GTC’에서 최신 혁신 기술을 공개한다. 이번에 공개하는 기술은 인간과 같은 다양한 감정을 표현하고 대화가 가능한 ‘디지털 휴먼’으로, 엔비디아 기술을 기반으로 2년 이상 진행한 연구 개발의 결과물이다. 이 기술은 2024년 상반기 출시 예정인 클레온의 실시간 대화형 디지털 휴먼 채팅 솔루션인 ‘크리챗’에 적용된다. 크리챗은 유명인 IP와 클레온의 기술을 결합한 디지털 휴먼과 사용자와 음성 및 영상을 통해 실제와 같은 대화를 나눌 수 있는 앱이다. 클레온은 감정 데이터를 기반으로 자연스러운 표정과 움직임 구현에 주력하며 디지털 휴먼 기술의 선두에 서 왔다. 클레온은 특히 엔비디아 A2F (Audio2Face) 애플리케이션을 활용해 디지털 휴먼의 미묘한 감정 표현을 구현하는 데 성공했으며, 이외에도 엔비디아의 최첨단 GPU와 전문 기술을 활용해 이 분야에서 상당한 발전을 이뤘다. 클레온은 기술 발전을 통한 산업 혁신적인 스타트업 육성 프로그램인 ‘엔비디아 인셉션’의 멤버이기도 하다. 이 프로그램은 클레온의 감정 데이터를 기반으로 다양한 표정과 움직임을 표현하는 디지털 휴먼 개발을 위한 연구, 리소스 및 협업 혁신을 지원하고 있다. 사진 한 장과 30초 분량의 음성 데이터로 디지털 휴먼을 생성하는 클레온의 핵심 기술은 생성 AI 분야에서의 중요한 도약을 의미한다. 지난해 11월 클레온은 세계 최초로 ‘헤드스왑’ 기술을 상용화해 이를 자체 개발한 디지털 휴먼 영상 제작 솔루션인 ‘클론’에 완벽하게 통합하는데 성공했다. 헤드스왑은 사람의 얼굴을 포함한 전체 두상 이미지를 원하는 대상의 두상으로 교체하는 기술이다. 클레온 ‘헤드 스왑’ 기술의 핵심은 단 한 장의 얼굴 사진만으로 얼굴형, 머리카락, 피부 질감까지 얼굴 특징과 구조를 자동 인식하고, 이 정보를 바탕으로 고도의 정밀한 디지털 휴먼을 생성한다는 점이다. 이를 통해 디지털 휴먼 제작 시간과 비용을 크게 줄일 수 있다. 클레온이 엔비디아 GTC에서 그간의 연구 결실을 공개할 준비를 하면서 업계의 기대감이 커지고 있다. 엔터테인먼트, 교육, 상담 등 감정 표현이 가능한 디지털 휴먼에 대한 시장성은 점점 더 확대되고 있으며, 잠재력은 무궁무진하다. 웹사이트: https://www.klleon.io
-
씨이랩, NVIDIA GTC 2024에서 첨단 AI 기술 선보여씨이랩이 오는 3월 18일부터 21일까지 미국 캘리포니아주 산호세에서 열리는 세계 최대 AI 컨퍼런스인 ‘NVIDIA GTC (GPU Technology Conference) 2024’에 참가한다고 밝혔다. 씨이랩은 이번 GTC 2024에서 △AI 영상분석 서비스(VidiGo) △합성데이터 생성 솔루션(X-GEN) △GPU 툴링 솔루션(astrago) 등 3가지 주요 제품을 통해 AI 기술을 선보일 예정이다.첫 번째 제품 ‘VidiGo’는 클라우드 기반 AI 영상분석 서비스로, 영상을 시청하지 않고도 영상의 핵심 내용을 정확하게 요약하고 사용자가 원하는 영상 장면을 신속히 검색한다. 이를 통해 영상 속 인물, 객체, 대사 등을 데이터베이스화해 미디어 산업 분야의 업무 효율성을 크게 향상한다. 두 번째 제품 ‘X-GEN’은 AI 모델 학습을 위한 합성데이터(Synthetic data)를 생성하는 솔루션이다. 특히 재난이나 국방 등 특수한 분야에서는 AI 학습을 위한 데이터가 절대적으로 부족한데, 이를 합성데이터로 대체 제공해 AI 학습 성능을 극대화한다. 씨이랩은 ‘X-GEN’을 엔비디아 Omniverse와 연동해 디지털 트윈 사업에 적용하며 3D 협업과 시뮬레이션을 진행한다. 씨이랩은 ‘X-GEN’과 Omniverse를 활용해 2023년부터 글로벌 기업의 제조 공장을 디지털 트윈을 통해 구축하는 프로젝트를 주도하고 있다. 마지막으로 씨이랩은 GPU의 활용 능력을 높여주는 신제품 ‘astrago’를 GTC 2024를 통해 첫 공개한다. ‘astrago’에는 AI 학습시간 예측 기술과 AI 모델 관리 기술이 탑재됐다. GPU의 활용 효율성을 극대화해 값비싼 GPU 사용 비용을 절감할 수 있다.채정환 씨이랩 부사장은 “GTC 2024를 통해 씨이랩의 첨단 AI 기술과 제품을 글로벌 시장에 선보이며 AI 기술의 산업분야별 활용 가능성을 넓히는 데 기여하길 기대한다”고 말했다. 웹사이트: http://www.xiilab.com
-
스노우플레이크, Mistral AI,스노우플레이크 코텍스 5개 국어 LLM 모델 지원스노우플레이크(Snowflake)가 프랑스의 AI 솔루션 제공업체 Mistral AI와 파트너십을 체결했다고 발표했다. 이번 파트너십은 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스(Snowflake Ventures)의 Mistral AI로의 시리즈 A 투자를 포함한다. 양사의 협력으로 스노우플레이크 고객은 Mistral AI가 가장 최근에 선보인 플래그십 대규모 언어 모델(Large Language Model, LLM)인 ‘미스트랄 라지(Mistral Large)’를 스노우플레이크 데이터 클라우드 플랫폼에서 적용할 수 있다. 또한 Mistral AI의 최초 기본 모델인 ‘미스트랄 7B’와 오픈 소스 모델 ‘믹스트랄(Mixtral) 8x7B’에도 액세스할 수 있다. ‘미스트랄 라지’는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고, 한 번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있으며, △프랑스어 △영어 △독일어 △스페인어 △이탈리아어 5개 언어 처리가 가능하다. 기존 생성형 AI 모델과 ‘대규모 다중 작업 언어 이해 측정(Measuring massive multitask language understanding, MMLU)’을 비교함에 있어서는 뛰어난 성능을 입증하면서 챗GPT-4에 이어 API를 통해 사용 가능한 모델 중 2위를 차지하기도 했다. ‘미스트랄 7B’는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이다. ‘믹스트랄 8x7B’는 대부분의 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다.Mistral AI의 모델들은 ‘스노우플레이크 코텍스(Snowflake Cortex)’에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안과 개인정 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다. 스노우플레이크 슈리다 라마스워미(Sridhar Ramaswamy) 신임 CEO는 “스노우플레이크는 Mistral AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 됐다”며 “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인정보보호는 강화하고, 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 말했다. Mistral AI의 공동 창립자 겸 CEO 아르튀르 멘슈(Arthur Mensch)는 “스노우플레이크의 보안, 개인정보보호 및 거버넌스에 대한 원칙은 누구나 어디에서든 혁신적인 AI를 활용할 수 있도록 하겠다는 Mistral AI의 포부와 맞아떨어진다. Mistral AI는 전 세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능·고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”며 “스노우플레이크 데이터 클라우드에서 Mistral AI의 모델을 활용함으로써 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 말했다. 스노우플레이크 지난해 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한 메타(Meta)의 ‘라마2(Llama 2)’ 모델을 시작으로 검색증강생성(Retrieval-Augmented Generation, RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 Mistral AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면의 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다.복잡한 GPU 관리 대신 사용자의 AI 활용도를 넓히기 위해 엔비디아(NVIDIA)와도 적극적으로 협력하고 있다. 스노우플레이크 코텍스는 엔비디아 트라이튼 추론 서버(Triton Inference Server)를 활용해 풀스택 가속 컴퓨팅 플랫폼을 제공하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되며 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 Mistral AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿(Streamlit)의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 스노우플레이크는 고객, 데이터 클라우드 생태계는 물론, 기술 커뮤니티 전체에 대한 AI 혁신을 위해 노력하고 있다. 이에 스노우플레이크는 최근 개발자, 연구원 및 조직이 개방적이고 안전하며 책임감 있는 AI를 개발하기 위한 국제 커뮤니티인 ‘AI 얼라이언스(AI Alliance)’에 가입했다. AI 얼라이언스를 통해 스노우플레이크는 생성형 AI가 가져올 도전과제와 기회에 대해 전방위적이고 개방적으로 대응하며 누구나 AI 기술을 활용하고 혜택을 얻을 수 있도록 지속적으로 노력할 계획이다. 웹사이트: https://www.snowflake.com/?lang=ko
-
에이수스, 눈쟁이와 함께 ‘ASUS 지포스 RTX 40시리즈’ 네이버 핫IT슈 진행에이수스 코리아는 유튜버 ‘눈쟁이’와 함께 네이버 쇼핑 라이브를 통해 ‘핫IT슈’를 진행한다고 밝혔다. 이번 행사에서는 눈쟁이가 추천하는 ASUS의 GeForce RTX 40시리즈 그래픽카드 기반의 조립 PC를 소개하며 게임용부터 크리에이터들이 사용할 수 있는 ProArt 에코시스템을 소개한다. 눈쟁이와 함께하는 ‘핫IT슈’는 3월 4일(금) 오후 7시부터 8시까지 1시간가량 진행되며 네이버 쇼핑 라이브에서 만날 수 있다. ◇ 눈쟁이가 추천하는 조립 PC 네이버 쇼핑 라이브 핫IT슈 인공지능(AI) 컴퓨팅의 세계적인 리더 NVIDIA의 그래픽카드는 새로운 SUPER 시리즈를 공개하며, 게임을 즐기는 고객들뿐만 아니라 콘텐츠 크리에이터 및 AI 관련 기술 분야로 기술을 확장하고 있다. 전문화된 AI 텐서(Tensor) 코어로 최대 836 AI TOPS의 연산 성능을 제공해 게임, 창의적인 작업 및 생산성에서 AI를 위한 혁신적인 기능을 제공한다. AI 기반 NVIDIA DLSS (Deep Learning Super Sampling) 초고해상도, 프레임 제너레이션 및 광선 재구성(Ray Reconstruction)이 레이 트레이싱(Ray Tracing)과 결합돼 최고의 비주얼 품질을 요구하는 PC 게이머에게 놀라운 경험을 제공한다. DLSS를 사용하면 8개의 픽셀 중 7개가 AI로 생성돼 더 나은 이미지 품질로 전체 레이 트레이싱을 최대 4배까지 가속할 수 있다. ◇ ASUS ProArt GeFroce RTX 4080 SUPER 해당 라이브 방송에서는 눈쟁이가 추천하는 100만원, 130만원 등의 일반 견적뿐만 아니라 크리에이터들을 위해 특화된 ASUS GeFroce RTX 4080 SUPER가 탑재된 ProArt 시스템도 함께 선보인다. 구매자들을 대상으로 추첨을 통해 총 10명에게 ROG GLADIUS III를 추가로 증정하는 행사뿐만 아니라 라이브 방송 참여자와 함께 퀴즈 이벤트를 진행한다. ◇ SUPER Fast. SUPER Powered ASUS 그래픽카드 시리즈는 생산 과정을 100% 자동화 공정으로 진행해 불량률을 최소화하며 엄격한 품질 관리를 하고 있다. 또한 효과적인 쿨링을 위해 고유의 팬 시스템인 엑시얼 테크 팬(Atixl Tech Fan), 긴 사용 시간을 제공하는 듀얼 볼 베어링, 부식을 방지하는 304 스테인리스 브래킷 등 제품 생산부터 실사용까지 성능뿐만 아니라 오래 사용할 수 있는 그래픽카드에 초점을 맞추고 있다. 특히 이번 행사 대상 제품 중 하나인 ASUS GeForce RTX ProArt 4080 SUPER의 경우 고성능의 성능뿐만 아니라 콤팩트하며 오랜 기간 작업을 하는 콘텐츠 크리에이터 및 AI 프로그래머 등을 위한 제품이다. 웹사이트: https://asus.com
-
삼성전자, AI 기반 6G 기술 주도 위한 ‘AI-RAN 얼라이언스’ 참여삼성전자가 AI를 통해 차세대 통신 기술인 6G 주도에 나선다. 삼성전자는 26일 AI와 무선통신 기술 융합을 통해 6G 기술 연구와 생태계 조성을 목표로 하는 ‘AI-RAN 얼라이언스(AI-RAN Alliance)’의 창립 멤버로 참여한다고 밝혔다. 26일 스페인 바르셀로나에서 열리는 ‘MWC 2024’에서 공식 출범한 ‘AI-RAN 얼라이언스’는 삼성전자를 포함해 엔비디아(Nvidia), 암(Arm), 소프트뱅크(SoftBank), 에릭슨(Ericsson), 노키아(Nokia), 마이크로소프트(Microsoft), 미국 노스이스턴대학 등 통신 및 소프트웨어 기업 10개사와 1개 대학이 창립 멤버로 구성된다. 삼성전자는 이번 얼라이언스 참여로 AI를 무선통신 기술에 적용해 서비스 혁신을 선도하고 통신망 효율을 강화하는 방향으로 6G 연구 추진 및 생태계 확장을 주도해 나간다는 계획이다. AI-RAN 얼라이언스는 ‘AI for RAN’, ‘AI and RAN’, ‘AI on RAN’ 등 세 개의 워킹그룹을 구성하고 기술 연구를 수행할 계획이다. △‘AI for RAN’ 워킹그룹은 주파수, 비용, 에너지 효율 제고를 위해 AI 및 머신러닝을 활용한 무선통신 최적화 기술 연구 △‘AI and RAN’ 워킹그룹은 효율적인 자원 관리와 인프라 활용 극대화를 위한 AI와 무선망 융합기술 △‘AI on RAN’ 워킹그룹은 무선망에서의 신규 AI 애플리케이션과 서비스 발굴에 집중해 기술 연구를 추진해 나갈 예정이다. 이러한 활동을 통해 도출된 기술 보고서, 백서 등의 연구 결과물은 향후 신규 서비스 발굴과 기술적 요구사항 및 규격 등 6G 표준화와 상용화에 크게 기여할 것으로 예상된다.삼성리서치 6G연구팀장인 찰리 장(Charlie Zhang) 상무는 “AI와 6G 네트워크를 중심으로 새로운 변화를 만들어 사람들이 기술과 상호 작용하는 방식을 혁신하고 새로운 가치를 창출할 것으로 기대한다”고 밝혔다. 한편, 삼성전자는 6G 준비를 위해 2019년 5월 삼성리서치 산하에 차세대 통신 연구센터를 설립해 차세대 통신 선행기술을 연구하고 있다. 2020년 7월 6G 백서, 2022년 5월 6G 주파수 백서를 발간했다. 또한 2022년 5월 제1회 삼성 6G 포럼을 개최하는 등 차세대 통신 시장에서의 경쟁력 강화를 위한 연구개발과 생태계 활성화에 주도적 역할을 하고 있다. 웹사이트: http://www.samsung.com/sec
-
씨이랩, Vision AI 시장 개화에 앞선 선제적 전략 제시씨이랩은 23일 매출액 또는 손익 구조 변동 공시와 관련해 변동 주요 원인과 2024년 성장 전략과 방향성을 밝혔다. 매출액 감소와 적자폭 확대에 대해 씨이랩은 엔비디아(NVIDIA) GPU의 글로벌 수급난에 따라 GPU 어플라이언스 사업 부문의 일부 매출 이연이 발생했고, 2023년 국내 AI 시장이 초거대 언어 모델(LLM) 중심으로 확대되며 상대적으로 ‘비전 AI(Vision AI)’ 분야 수요가 감소했다고 밝혔다. 이에 씨이랩은 전략적으로 제품 포트폴리오를 강화했다. 챗GPT(ChatGPT)를 포함한 여러 LLM 모델을 비전 AI 제품 내 플러그인하며 LLM 기능을 보강했다. NVIDIA와의 협력 모델도 강화했다. 엔비디아 옴니버스(NVIDIA Omniverse와) 연계한 AI 디지털 트윈 사업 추진을 위한 제품 개발과 과감한 투자를 진행했고, 올해부터 엔비디아 AI 엔터프라이즈 제품군 지원을 위한 기술 조직인 AI 프로페셔널 서비스(Professional Service)팀을 신설해 운영하고 있다. 최근 오픈AI의 ‘Sora’ 모델 공개와 같은 시장 동향을 고려할 때 2024년은 언어 모델 중심에서 비전 AI 중심으로 시장 변화가 예상된다. 씨이랩은 이런 변화에 선제적으로 대응하고 있으며, 국내 대형 고객사를 중심으로 비전 AI 사업 기회를 적극적으로 모색했고 올해부터 본격적인 결실을 맺을 것이라 밝혔다. 씨이랩 이우영 대표이사는 “2024년 비전 AI 시장 개화에 따른 사업 확장이 예상되는 바, 씨이랩은 R&D 투자 확대를 통해 미래 성장을 위한 전략적 준비를 진행하고 있다”며 “엔비디아와의 긴밀한 협력으로 디지털 트윈 분야에서도 꾸준히 성장과 혁신을 이끌겠다”고 말했다. 웹사이트: http://www.xiilab.com
-
에이수스, 13세대 인텔 코어 프로세서 지원하는 엣지 컴퓨터 ‘ASUS IoT PE5100D·PE5101D’ 출시에이수스 코리아(지사장 강인석, 이하 에이수스)가 13세대, 12세대 인텔 코어 프로세서로 구동되는 고성능 엣지 컴퓨터인 ASUS IoT PE5100D 및 PE5101D를 출시했다고 밝혔다. ASUS IoT PE5100D와 PE5101D는 인텔 R680E 칩셋을 탑재해 최대 24개의 코어와 32개의 스레드를 지원하는 13세대, 12세대 인텔 코어 프로세서와 최대 4800MHz 클럭을 지원하는 DDR5 메모리를 통해 강력한 성능을 제공한다. 듀얼 2.5인치 핫스왑(Hot-swappable) HDD 트레이와 RAID 0/1 지원으로 데이터 보안과 편의성을 모두 갖춰 스마트 공장(Smart Factory), 지능형 운송(Intelligent Transportation), 키오스크(Kiosk), 머신 비전(Machine Vision), 지능형 비디오 분석(Intelligent Video Analytics) 및 다양한 AIoT 애플리케이션에 이상적이다. 3개의 2.5GbE 포트와 6개의 COM 포트, 10개의 USB 포트 및 8비트 절연(Isolated) DIO 옵션을 포함한 다양한 I/O 연결 기능을 갖췄다. 추가로 M.2 M key (NVMe) 1개, M.2 B key (4G/5GNR) 1개, M.2 E key (WiFi 6) 1개, 미니 PCIe (add-on card) 슬롯 1개를 제공하며, 최대 4096×2160 해상도를 지원하는 HDMI 포트 1개와 DP 포트 2개를 통해 최대 3개의 디스플레이 구성이 가능하다. PE5101D는 2개의 PCIe 슬롯을 추가로 제공해 AI 추론 및 머신 비전과 같은 다양한 애플리케이션을 위해 NVIDIA RTX A2000을 포함한 최대 200W의 그래픽카드 및 추가 애드온 카드를 장착할 수 있다. 또한 높은 CFM 성능의 시스템 팬을 탑재해 보다 효율적인 냉각 성능을 제공한다. PE5100D와 PE5101D는 충격과 진동을 견딜 수 있도록 설계됐으며, 미국 국방부 군사 규격인 밀스펙(MIL-STD-810H)을 준수한다. 최적화된 열 설계로 PE5100D는 -25°C~70°C 온도 범위에서, PE5101D는 -25°C~60°C 온도 범위에서 안정적이고 탄력적인 작동을 보장하며, 최적의 성능과 다양한 환경에 대한 적응성을 보장하기 위해 광범위한 전원 입력(8~48V DC)을 갖췄다. 웹사이트: https://asus.com