검색결과
-
스노우플레이크, Mistral AI,스노우플레이크 코텍스 5개 국어 LLM 모델 지원스노우플레이크(Snowflake)가 프랑스의 AI 솔루션 제공업체 Mistral AI와 파트너십을 체결했다고 발표했다. 이번 파트너십은 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스(Snowflake Ventures)의 Mistral AI로의 시리즈 A 투자를 포함한다. 양사의 협력으로 스노우플레이크 고객은 Mistral AI가 가장 최근에 선보인 플래그십 대규모 언어 모델(Large Language Model, LLM)인 ‘미스트랄 라지(Mistral Large)’를 스노우플레이크 데이터 클라우드 플랫폼에서 적용할 수 있다. 또한 Mistral AI의 최초 기본 모델인 ‘미스트랄 7B’와 오픈 소스 모델 ‘믹스트랄(Mixtral) 8x7B’에도 액세스할 수 있다. ‘미스트랄 라지’는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고, 한 번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있으며, △프랑스어 △영어 △독일어 △스페인어 △이탈리아어 5개 언어 처리가 가능하다. 기존 생성형 AI 모델과 ‘대규모 다중 작업 언어 이해 측정(Measuring massive multitask language understanding, MMLU)’을 비교함에 있어서는 뛰어난 성능을 입증하면서 챗GPT-4에 이어 API를 통해 사용 가능한 모델 중 2위를 차지하기도 했다. ‘미스트랄 7B’는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이다. ‘믹스트랄 8x7B’는 대부분의 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다.Mistral AI의 모델들은 ‘스노우플레이크 코텍스(Snowflake Cortex)’에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안과 개인정 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다. 스노우플레이크 슈리다 라마스워미(Sridhar Ramaswamy) 신임 CEO는 “스노우플레이크는 Mistral AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 됐다”며 “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인정보보호는 강화하고, 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 말했다. Mistral AI의 공동 창립자 겸 CEO 아르튀르 멘슈(Arthur Mensch)는 “스노우플레이크의 보안, 개인정보보호 및 거버넌스에 대한 원칙은 누구나 어디에서든 혁신적인 AI를 활용할 수 있도록 하겠다는 Mistral AI의 포부와 맞아떨어진다. Mistral AI는 전 세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능·고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”며 “스노우플레이크 데이터 클라우드에서 Mistral AI의 모델을 활용함으로써 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 말했다. 스노우플레이크 지난해 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한 메타(Meta)의 ‘라마2(Llama 2)’ 모델을 시작으로 검색증강생성(Retrieval-Augmented Generation, RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 Mistral AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면의 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다.복잡한 GPU 관리 대신 사용자의 AI 활용도를 넓히기 위해 엔비디아(NVIDIA)와도 적극적으로 협력하고 있다. 스노우플레이크 코텍스는 엔비디아 트라이튼 추론 서버(Triton Inference Server)를 활용해 풀스택 가속 컴퓨팅 플랫폼을 제공하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되며 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 Mistral AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿(Streamlit)의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 스노우플레이크는 고객, 데이터 클라우드 생태계는 물론, 기술 커뮤니티 전체에 대한 AI 혁신을 위해 노력하고 있다. 이에 스노우플레이크는 최근 개발자, 연구원 및 조직이 개방적이고 안전하며 책임감 있는 AI를 개발하기 위한 국제 커뮤니티인 ‘AI 얼라이언스(AI Alliance)’에 가입했다. AI 얼라이언스를 통해 스노우플레이크는 생성형 AI가 가져올 도전과제와 기회에 대해 전방위적이고 개방적으로 대응하며 누구나 AI 기술을 활용하고 혜택을 얻을 수 있도록 지속적으로 노력할 계획이다. 웹사이트: https://www.snowflake.com/?lang=ko
-
인피니언, 고성능 시스템을 위한 차세대 실리콘 카바이드 기술 ‘CoolSiC™ MOSFET G2’ 출시인피니언 테크놀로지스가 차세대 실리콘 카바이드(SiC) MOSFET 트렌치 기술을 출시한다고 밝혔다. 새로운 인피니언 CoolSiC™ MOSFET 650V 및 1200V 2세대 제품은 이전 세대 대비 저장 에너지와 전하 같은 MOSFET 주요 성능을 최대 20% 개선하면서 품질과 신뢰성은 그대로다. 따라서 에너지 효율을 높이고 탈탄소화에 기여한다. CoolSiC MOSFET 2세대(G2) 기술은 실리콘 카바이드의 고유한 성능 이점을 활용해서 에너지 손실을 낮추고, 전력 변환 시 더 높은 효율을 달성한다. 따라서 태양광, 에너지 저장, DC EV 충전, 모터 드라이브, 산업용 전원장치 등 다양한 전력 반도체 애플리케이션에 적합하다. 전기차 DC 급속 충전기에 CoolSiC G2를 사용하면 이전 세대 대비 전력 손실을 최대 10%까지 낮출 수 있어 폼팩터를 키우지 않고 충전 용량을 높일 수 있다. 트랙션 인버터에 CoolSiC G2 디바이스를 채택하면 전기차 주행 거리를 늘릴 수 있다. 신재생에너지 분야에서 태양광 인버터에 CoolSiC G2를 채택하면 높은 전력 출력을 유지하면서 크기를 줄일 수 있어 와트당 비용을 낮출 수 있다. 고성능 CoolSiC G2 솔루션을 구현한 인피니언의 선도적인 CoolSiC MOSFET 트렌치 기술은 최적화된 디자인을 통해서 기존 SiC MOSFET 기술 대비 더 높은 효율과 신뢰성을 제공한다. CoolSiC G2 기반의 디자인에 기술상을 수상한 .XT 패키징 기술을 결합해 더 높은 열전도성, 더 우수한 어셈블리 관리, 향상된 성능을 구현할 수 있다. 인피니언은 실리콘, 실리콘 카바이드, 갈륨 나이트라이드(GaN)를 모두 공급하며, 설계 유연성과 첨단 애플리케이션 노하우로 디자이너들의 기대와 요구를 충족한다. SiC와 GaN 등 와이드 밴드갭(WBG) 소재 기반의 혁신적인 반도체는 에너지를 효율적으로 사용하도록 해 탈탄소화에 기여한다. 웹사이트: http://www.infineon.com
-
파수 ‘엔터프라이즈 LLM’ 출시파수가 기업용 sLLM(small LLM, 경량 대형언어모델) ‘파수 ELLM(파수 엔터프라이즈 LLM, 이하 ELLM)’을 출시했다. 파수는 기업 문서에 대한 이해도가 높은 ELLM에 파수의 앞선 데이터 관리 역량을 더해, 기업 및 기관이 AI를 구축하고 활용하는 가장 효율적이고 실용적인 방안을 제시한다. 파수의 온프레미스 구축형 ELLM은 조직의 특성에 맞는 생성형 AI를 구축해, 보고서 작성 및 문서 요약, 내부 데이터 분석, 지식창고 운영, 고객 응대 등 다양한 분야의 업무 생산성 및 효율성을 혁신하고자 하는 고객을 위해 출시됐다. ELLM은 글로벌 데이터 보안 및 관리 시장을 이끌어 온 파수의 역량이 더해져 업무 문서에 대한 이해도가 뛰어나며, 고객에 특화된 데이터로 신뢰성이 높은 맞춤형 결과물을 제공하는데 최적화했다. 파수 ELLM은 고객별 도메인 사전 특화 학습(DAPT)과 태스크별 미세조정(파인튜닝) 학습으로 맞춤형 결과물을 제공한다. 멀티홉 추론 방식을 채택해 사용자 요청을 분석, 태스크를 분류하고 각 태스크별 최적의 프롬프트를 적용한다. RAG(검생증강생성, Retrieval-Augmented Generation) 방식으로 필요에 따라 외부 검색 엔진이나 내부 시스템의 검색 기능 등과 연계할 수 있는 확장형 구조로 활용도도 높다. 보안과 속도 면에서 차세대 프로그래밍 언어로 떠오르고 있는 Rust 기반에 IO 멀티플렉싱(처리 다중화) 방식을 도입해 요청 처리 속도 또한 빠르다. 파수는 특히 내부구축형(프라이빗, 온프레미스) AI 도입을 고려하고 있지만 AI 학습에 필요한 내부 데이터를 제대로 관리하지 못하고 있는 대부분의 조직에게 AI 활용을 위한 가장 효율적인 길을 열어준다. 파수는 AI 학습을 위한 내부 데이터 관리의 필수조건인 문서자산화와 버전관리, 권한제어를 모두 해결하는 파수의 문서관리 플랫폼 ‘랩소디(Wrapsody)’ 외에도 개인정보 탐지 및 관리 등 다방면의 데이터 관리 솔루션과 역량을 보유하고 있다. 고객의 환경과 목적에 따라 파수의 ELLM과 관련 역량을 결합해, AI 학습에 필요한 복잡한 과정을 최소화하고 보다 쉽게 AI를 활용할 수 있는 방안을 제공한다. 또한 기존에 사용 중인 보안 솔루션의 세부적인 접근 제어 정책과 메타데이터 정보를 연동할 수 있어 보다 안전하게 생성형 AI를 사용할 수 있다. 윤경구 파수 전무는 “글로벌 데이터 관리와 보안 시장에서 쌓아온 노하우와 이번에 출시된 ELLM으로 파수는 내부 데이터 수집부터 관리, 보안, AI 활용에 이르는 과정을 통합지원해 고객의 성공적인 AI 활용을 현실화한다”며 “문서에 대한 높은 이해도를 갖춘 ELLM의 출시를 시작으로 ‘고객들의 AI 활용을 돕는 AI 기업’으로서 고객이 가장 필요한 솔루션과 서비스를 지속적으로 선 뵐 예정”이라고 말했다. 웹사이트: http://www.fasoo.com
-
인피니언, AI 데이터 센터의 뛰어난 성능과 총소유비용을 가능하게 하는 고밀도 전력 모듈 출시인피니언 테크놀로지스는 동급 최고의 전력 밀도, 품질 및 총소유비용(TCO)을 가능하게 하는 AI 데이터센터용 TDM2254xD 이중-위상(dual-phase) 전력 모듈 시리즈를 출시한다고 밝혔다. TDM2254xD 시리즈는 OptiMOS™ MOSFET 기술의 혁신과 새로운 패키징 및 고유의 마그네틱 구조를 결합해 견고한 기계적 디자인으로 업계 최고의 전기 및 열 성능을 제공한다. 따라서 데이터 센터를 더 효율적으로 운영해 AI GPU(그래픽 프로세서 유닛) 플랫폼의 높은 전력 수요를 충족하고 TCO를 크게 줄이도록 한다. AI 서버는 기존 서버보다 3배 더 많은 에너지가 필요하며, 데이터 센터는 이미 전 세계 에너지 공급의 2% 이상을 소비한다. 따라서 탈탄소화를 앞당길 수 있는 혁신적인 전력 솔루션 및 아키텍처를 찾아야 한다. 친환경 AI 팩토리로의 여정을 위한 인피니언의 TDM2254xD 이중-위상 전력 모듈은 XDP™ 컨트롤러 기술과 결합해서 뛰어난 전기, 열, 기계적 동작으로 고성능 컴퓨팅 플랫폼에서 효율적인 전압 레귤레이션을 가능하게 한다. TDM2254xD 모듈의 고유한 디자인은 전류와 열전도에 최적화된 새로운 인덕터 디자인을 통해 전력 스테이지에서 방열판으로 열을 효율적으로 전달, 최대 부하에서 업계 평균 모듈보다 2% 더 높은 효율을 제공한다. GPU 코어의 전력 효율을 개선하면 상당한 에너지를 절약할 수 있다. 이는 생성형 AI를 컴퓨팅하는 데이터 센터가 수메가와트를 절약하도록 하며, 이것은 시스템 수명 동안 CO2 배출량을 줄이고 수백만달러의 운영 비용 절감으로 이어진다. 웹사이트: http://www.infineon.com
-
이글루코퍼레이션, ISO 9001 인증 획득이글루코퍼레이션이 운영기술(OT) 보안 부문에서 품질경영시스템 ISO 9001 인증을 획득했다고 밝혔다. 이글루코퍼레이션은 고품질이 보증된 OT 보안 솔루션 제공을 확대하며, OT 사업 추진에 속도를 붙일 방침이다. ISO 9001은 국제표준화기구(ISO)에서 제정·시행하는 품질경영시스템에 관한 국제규격이다. 고객에게 제공하는 제품 및 서비스의 품질, 유지관리 실태 등을 평가해 규정된 요구 기준을 충족할 시 획득할 수 있다.이글루코퍼레이션은 이번 인증 획득을 계기로 해사 환경에 최적화된 선박용·선사용 통합보안관리 솔루션인 ‘스파이더 오티 포 마리타임(SPiDER OT for Maritime)’ 확대 공급에 가속도를 붙일 전략이다. SPiDER OT for Maritime은 선박 사이버 복원력 향상을 위해 올해부터 의무 적용된 국제선급협회(IACS)의 공통규칙 UR E26·27을 충족하는 솔루션이다. 선박 네트워크와 보안 정책에 대한 철저한 분석을 토대로 높은 보안성과 안정성을 보장한다.이득춘 이글루코퍼레이션 대표는 “이번 ISO 9001 인증 취득을 통해 이글루코퍼레이션 솔루션의 기술력과 신뢰성을 또 한 번 인정받게 돼 기쁘다”며 “지속적인 연구개발과 개선을 통해 솔루션 품질을 더욱 높여나가겠다”고 밝혔다. 웹사이트: http://www.igloo.co.kr
-
삼성전자, SD 익스프레스 마이크로SD 카드 개발삼성전자가 마이크로SD 카드 신제품 2종을 개발하고, 고성능·고용량 마이크로SD 카드 라인업 확대에 나선다. ◇ 업계 최초 고성능 256GB SD 익스프레스 마이크로SD 카드 삼성전자가 업계 최초로 고성능 SD 익스프레스 인터페이스 기반의 마이크로SD 카드를 개발하고 고객사에 샘플 제공을 시작했다.삼성전자는 저전력 설계 기술과 펌웨어 최적화로 발열 등 마이크로SD 폼팩터 기반 제품 개발의 기술 난제를 해결해 손톱 크기만 한 폼팩터에서도 최고의 성능과 안정성을 구현해냈다. 이 제품은 SD 익스프레스 7.1 규격을 기반으로 마이크로SD 카드 최고 연속 읽기 성능인 초당 800메가바이트(800MB/s)와 256GB의 고용량을 제공해 업계 최고 수준의 성능과 용량을 자랑한다.연속 읽기 800MB/s는 4GB 크기 영화 한 편을 메모리카드에서 PC로 5초 안에 전송할 수 있는 속도로 기존 UHS-Ⅰ카드의 연속 읽기 200MB/s 대비 최대 4배까지 향상시켰다.또한 SSD에 탑재했던 DTG(Dynamic Thermal Guard) 기술을 마이크로SD 카드에도 최초 적용해 제품 온도를 최적 수준으로 유지시켜 소형 폼팩터에서 발생하는 발열 문제를 효과적으로 해결했다. ◇ 최신 V낸드 기반 1TB 고용량 UHS-Ⅰ마이크로SD 카드 삼성전자는 최신 V낸드 기반 업계 최고 수준의 내구성을 갖춘 고용량 1테라바이트(1TB) UHS-Ⅰ마이크로SD 카드를 양산한다.최신 8세대 1테라비트(Terabit) 고용량 V낸드를 8단으로 안정적으로 쌓아 패키징해 기존 SSD에서 구현할 수 있었던 테라바이트급 고용량을 소형 폼팩터인 마이크로SD 카드에서도 구현해냈다. 이 제품은 방수, 낙하, 마모, 엑스레이, 자기장, 온도 변화 등 극한의 외부 환경에서도 데이터를 안전하게 보호하며 업계 최고 수준의 내구성을 갖췄다.데이터 보호 기능: 방수(1미터 깊이 수심에서 최대 72시간 방수), 낙하(최대 5미터 높이에서 낙하 손상 방지), 마모(최대 1만회 마모 방지), 엑스레이(공항 검색대와 동일한 최대 100mGy에서 210초 기준), 자기장(MRI와 동일한 최대 1만5000가우스 30초 기준), 온도 변화(영하 25℃~영상 85℃) 삼성전자 메모리사업부 브랜드제품Biz팀 손한구 상무는 “삼성전자의 새로운 마이크로SD 카드는 손톱만 한 크기지만, PC 저장장치인 SSD에 버금가는 고성능과 고용량을 선사한다”며 “다가오는 모바일 컴퓨팅과 온디바이스 AI 시대의 요구를 만족시키는 고성능·고용량 기술 리더십을 견인해 나갈 예정”이라고 밝혔다.256GB SD 익스프레스 마이크로SD 카드는 다음 달 양산해 B2B 공급을 시작으로 연내 B2C 출시 예정이며, 1TB UHS-Ⅰ마이크로SD 카드는 3분기 출시할 예정이다. 웹사이트: http://www.samsung.com/sec
-
삼성전자, AI 기반 6G 기술 주도 위한 ‘AI-RAN 얼라이언스’ 참여삼성전자가 AI를 통해 차세대 통신 기술인 6G 주도에 나선다. 삼성전자는 26일 AI와 무선통신 기술 융합을 통해 6G 기술 연구와 생태계 조성을 목표로 하는 ‘AI-RAN 얼라이언스(AI-RAN Alliance)’의 창립 멤버로 참여한다고 밝혔다. 26일 스페인 바르셀로나에서 열리는 ‘MWC 2024’에서 공식 출범한 ‘AI-RAN 얼라이언스’는 삼성전자를 포함해 엔비디아(Nvidia), 암(Arm), 소프트뱅크(SoftBank), 에릭슨(Ericsson), 노키아(Nokia), 마이크로소프트(Microsoft), 미국 노스이스턴대학 등 통신 및 소프트웨어 기업 10개사와 1개 대학이 창립 멤버로 구성된다. 삼성전자는 이번 얼라이언스 참여로 AI를 무선통신 기술에 적용해 서비스 혁신을 선도하고 통신망 효율을 강화하는 방향으로 6G 연구 추진 및 생태계 확장을 주도해 나간다는 계획이다. AI-RAN 얼라이언스는 ‘AI for RAN’, ‘AI and RAN’, ‘AI on RAN’ 등 세 개의 워킹그룹을 구성하고 기술 연구를 수행할 계획이다. △‘AI for RAN’ 워킹그룹은 주파수, 비용, 에너지 효율 제고를 위해 AI 및 머신러닝을 활용한 무선통신 최적화 기술 연구 △‘AI and RAN’ 워킹그룹은 효율적인 자원 관리와 인프라 활용 극대화를 위한 AI와 무선망 융합기술 △‘AI on RAN’ 워킹그룹은 무선망에서의 신규 AI 애플리케이션과 서비스 발굴에 집중해 기술 연구를 추진해 나갈 예정이다. 이러한 활동을 통해 도출된 기술 보고서, 백서 등의 연구 결과물은 향후 신규 서비스 발굴과 기술적 요구사항 및 규격 등 6G 표준화와 상용화에 크게 기여할 것으로 예상된다.삼성리서치 6G연구팀장인 찰리 장(Charlie Zhang) 상무는 “AI와 6G 네트워크를 중심으로 새로운 변화를 만들어 사람들이 기술과 상호 작용하는 방식을 혁신하고 새로운 가치를 창출할 것으로 기대한다”고 밝혔다. 한편, 삼성전자는 6G 준비를 위해 2019년 5월 삼성리서치 산하에 차세대 통신 연구센터를 설립해 차세대 통신 선행기술을 연구하고 있다. 2020년 7월 6G 백서, 2022년 5월 6G 주파수 백서를 발간했다. 또한 2022년 5월 제1회 삼성 6G 포럼을 개최하는 등 차세대 통신 시장에서의 경쟁력 강화를 위한 연구개발과 생태계 활성화에 주도적 역할을 하고 있다. 웹사이트: http://www.samsung.com/sec
-
에이수스, 최신 인텔 14세대 프로세서 기반 ASUS IoT 산업용 메인보드 및 엣지 AI 컴퓨터 제품군 출시에이수스(ASUS)의 한국 지사인 에이수스 코리아가 최신 인텔 14세대 코어 프로세서 기반의 새로운 ASUS IoT 산업용 메인보드 및 엣지 AI 컴퓨터 제품군을 출시했다고 전했다. ◇ 인텔 14세대 코어 프로세서 기반 ASUS IoT 산업용 메인보드 및 엣지 AI 컴퓨터 제품군 새롭게 선보이는 ASUS IoT의 솔루션은 최신 14세대 인텔 코어 프로세서와 초고속 DDR5 메모리를 지원해 향상된 엣지 AI 컴퓨팅 기능과 효율적인 에너지 관리를 통해 탁월한 성능을 제공한다. 이런 강력한 솔루션은 소매, 은행, 호텔, 의료, 산업 제조, 기계 학습 및 AI 추론을 비롯한 다양한 산업 전반에 걸쳐 IoT 애플리케이션의 수많은 요구 사항을 충족하도록 맞춤화돼 있다. 최대 24개의 코어와 32개의 스레드를 갖춘 새로운 인텔 14세대 코어 프로세서를 채택해 다양한 IoT 엣지 AI 애플리케이션에 맞춰진 최첨단 하이브리드 설계를 선보인다. 이전 13세대 인텔 코어 프로세서보다 단일 및 다중 스레드 기능은 물론 AI 성능을 크게 향상시켜 탁월한 성능을 보장한다. 또 DDR4 메모리보다 50% 더 빠른 전송 속도와 8% 향상된 전력 효율성을 제공하며, ECC (On-Die Error Correction Code) 기술로 안정성을 보장하는 DDR5 메모리를 지원한다. ASUS IoT의 산업용 메인보드는 PCIe 4.0보다 2배로 빠른 PCI Express® (PCIe®) 5.0을 지원하며, 시스템 유연성을 위해 완전한 하위 호환성을 제공한다. 이를 통해 더 빠른 데이터 전송 및 확장성을 제공, 산업 애플리케이션의 요구 사항을 충족할 수 있다. 메인보드에 통합된 인텔 UHD 그래픽 기술은 최대 8K60 HDR 비디오와 4K60 다중 디스플레이를 지원하며, 생생한 그래픽과 강력한 AI 가속을 제공해 스마트 팩토리의 소매, 의료, AI를 포함한 다양한 애플리케이션에 이상적이다. ASUS IoT는 보안을 최우선 과제로 여기고 있어 인텔과의 협력을 통해 IoT 애플리케이션의 신뢰할 수 있는 정보 보안을 보장한다. ASUS IoT 메인보드에는 부트 가드(Boot Guard), PTT (Platform Trust Technology), AES-NI 및 VT를 포함한 강력한 보안 기능을 갖춰 중요한 애플리케이션을 사이버 위협에서 보호한다. 또 최대 5Gbps의 속도를 제공하는 WiFi 7을 지원해 의료, 공급망 관리, 스마트 시티 제어 및 산업 환경에서 향상된 연결성을 제공해 원활한 통신과 데이터 전송을 보장한다. ASUS IoT의 새로운 제품군은 R680EA-IM-A, Q670EA-IM-A, H610A-IM-A, H610T-EM-A를 포함한 ATX, 마이크로 ATX, 미니 ITX 등 다양한 폼 팩터의 산업용 메인보드와 SBC (Single-Board Computer) 및 산업용 애플리케이션을 위한 고급 AI 기능을 제공하는 PE4000G, PE6000G 등이 포함돼 있다. 웹사이트: https://asus.com
-
삼성전자, 36GB HBM3E 12H D램 개발삼성전자가 업계 최초로 36GB(기가바이트) HBM3E(5세대 HBM) 12H(High, 12단 적층) D램 개발에 성공하고 고용량 HBM 시장 선점에 나선다. 삼성전자는 24Gb(기가비트) D램 칩을 TSV(Through-Silicon Via, 실리콘 관통 전극) 기술로 12단까지 적층해 업계 최대 용량인 36GB HBM3E 12H를 구현했다.HBM3E 12H는 초당 최대 1280GB의 대역폭과 현존 최대 용량인 36GB를 제공해 성능과 용량 모두 전작인 HBM3(4세대 HBM) 8H(8단 적층) 대비 50% 이상 개선된 제품이다. 삼성전자는 ‘Advanced TC NCF(Thermal Compression Non Conductive Film, 열 압착 비전도성 접착 필름)’ 기술로 12H 제품을 8H 제품과 동일한 높이로 구현해 HBM 패키지 규격을 만족시켰다. ‘Advanced TC NCF’ 기술을 적용하면 HBM 적층 수가 증가하고, 칩 두께가 얇아지면서 발생할 수 있는 ‘휘어짐 현상’을 최소화할 수 있는 장점이 있어 고단 적층 확장에 유리하다. 삼성전자는 NCF 소재 두께도 지속적으로 낮춤으로써, 업계 최소 칩 간 간격인 ‘7마이크로미터(um)’를 구현했다. 이를 통해 HBM3 8H 대비 20% 이상 향상된 수직 집적도를 실현했다.특히, 칩과 칩 사이를 접합하는 공정에서 신호 특성이 필요한 곳은 작은 범프를, 열 방출 특성이 필요한 곳에는 큰 범프를 목적에 맞게 사이즈를 맞춰 적용했다. 크기가 다른 범프 적용을 통해 열 특성을 강화하는 동시에 수율도 극대화했다. 또 삼성전자는 NCF로 코팅하고 칩을 접합해 범프 사이즈를 다양하게 하면서 동시에 공극(Void) 없이 적층하는 업계 최고 수준의 기술력도 선보였다.삼성전자가 개발에 성공한 HBM3E 12H는 AI 서비스의 고도화로 데이터 처리량이 급증하는 상황 속에서 AI 플랫폼을 활용하는 다양한 기업들에 최고의 솔루션이 될 것으로 기대된다. 특히, 성능과 용량이 증가한 이번 제품을 사용할 경우 GPU 사용량이 줄어 기업들이 총소유비용(TCO, Total Cost of Ownership)을 절감할 수 있는 등 리소스 관리를 유연하게 할 수 있는 것도 큰 장점이다.예를 들어 서버 시스템에 HBM3E 12H를 적용하면 HBM3 8H를 탑재할 때보다 평균 34% AI 학습 훈련 속도 향상이 가능하며, 추론의 경우에는 최대 11.5배 많은 AI 사용자 서비스가 가능할 것으로 기대된다. 삼성전자 메모리사업부 상품기획실장 배용철 부사장은 “삼성전자는 AI 서비스를 제공하는 고객사의 고용량 솔루션 니즈에 부합하는 혁신 제품 개발에 힘쓰고 있다”며 “앞으로 HBM 고단 적층을 위한 기술 개발에 주력하는 등 고용량 HBM 시장을 선도하고 개척해 나갈 것”이라고 밝혔다. 웹사이트: http://www.samsung.com/sec
-
큐엑텔, 5G 레드캡 준비를 주도하기 위한 RG255G 미디어텍 기반 모듈 발표큐엑텔 와이어리스 솔루션스(Quectel Wireless Solutions)가 오늘 5G 레드캡 미디어텍(5G RedCap MediaTek) 기반 모듈인 큐엑텔 RG255G(Quectel RG255G)를 발표했다. 5G Redcap은 Reduced Capability의 약자로, 5G의 낮은 대기 시간 및 안정성을 경량 아키텍처의 비용 경쟁력 있는 칩셋 설계에서 네트워크 슬라이싱과 같은 기능과 결합하는, 3GPP Release 17에서 정의된 5G 변형이다. 이러한 특성의 이점을 누릴 수 있지만 5G의 전체 기능이 필요하지 않은 배치의 경우 레드캡은 정확하고 비용 효과적인 옵션을 제공한다. 세계 최초의 5G 모뎀-RF-시스템-온-칩(System-on-Chip, SoC)인 이 모듈은 기존 4G IoT 모뎀에 비해 60% 낮은 전력 소비, 70G 확장 모바일 광대역(extended mobile broadband, eMBB) 모뎀에 비해 전력 소비 70% 감소, Release 17 절전 기능이 활성화된 추가 10% 절전 등을 가져오는 미디어텍(MediaTek)의 5G 레드캡 울트라세이브(5G RedCap UltraSave) 기능을 갖추고 있다. 큐엑텔 와이어리스 솔루션스의 사장 겸 CSO인 노베르트 무러(Norbert Muhrer)는 “우리는 기술의 전체 비용 및 전력 수요를 인정할 필요 없이 고객들에게 5G의 많은 이점에 액세스할 수 있게 하는 큐엑텔 RG255G 5G 레드캡(Quectel RG255G 5G Red Cap) 모듈을 발표하게 되어 기쁩니다”라며 “우리는 5G 레드캡이 초고신뢰 저지연 통신(Ultra-Reliable Low Latency Communication, URLLC) 및 네트워크 슬라이싱을 요구하는 광범위한 IoT 사용 사례 및 애플리케이션을 가능하게 하는 것을 보고 있습니다”라고 말했다. 큐엑텔 RG255G는 220Mbps의 다운링크 성능과 256QAM에서 121Mbps 또는 64QAM에서 91Mbps의 업링크 성능을 제공한다. LGA, M.2, Mini PCIe의 세 가지 폼 팩터로 제공되는 RG255G 제품군은 20MHz 대역폭에서 작동하며 GNSS뿐만 아니라 LTE Cat 4에 대한 지원을 제공한다. 이 모듈은 또한 USB 2.0 및 PCIe 1.0을 포함한 여러 인터페이스를 제공한다. 미디어텍의 무선 통신 사업부 총괄 관리자인 에반 수(Evan Su)는 “T300 시리즈는 레드캡을 위한 세계 최초의 6nm 무선 주파수 시스템-온-칩(RFSOC) 단일 다이 솔루션입니다”라며 “우리는 레드캡을 5G 기능에 대한 액세스를 민주화하는 핵심 수단으로 보고 있으며, 고객들에게 구성 요소를 최적화하고 다양한 가격대의 광범위한 애플리케이션을 위한 5G 지원 장치를 제공할 수 있는 능력을 제공합니다”라고 말했다. RG255G 모듈은 전력 모니터링, POS, 산업 자동화, 스마트 에너지 및 스마트 그리드, 중속 모바일 광대역 및 웨어러블 장치를 포함하는 애플리케이션에 이상적이다.큐엑텔의 IoT 모듈은 보안을 핵심으로 개발됐다. 제품 아키텍처에서 펌웨어/소프트웨어 개발까지, 큐엑텔은 선도적인 업계 관행 및 표준을 통합하고, 제3자 독립 테스트 하우스를 통해 잠재적인 취약성을 완화하며, SBOM 및 VEX 파일 생성과 같은 보안 실무와 펌웨어 바이너리 분석을 전체 소프트웨어 개발 수명 주기에 통합했다. 웹사이트: https://www.quectel.com