검색결과
-
글래스돔, ‘SaaS 기반 제품탄소발자국 관리 솔루션’의 ISO 국제 표준 검증 획득글래스돔코리아는 국제 공인 인증기관 로이드인증원(LRQA)으로부터 제품탄소발자국 평가에 대한 국제 표준 ‘ISO 14067’ 검증을 세계 최초로 획득했다고 26일 밝혔다. 로이드인증원(LRQA)은 국제 공인 인증기관이자 EU에서 인정한 EU-ETS 검증기관으로 추후 CBAM(탄소국경조정제도) 공인 검증기관으로 등록 예정이다. EU지역으로 철강, 알루미늄 등의 품목을 수출하고자 하는 기업이 반드시 제출해야 하는 CBAM 보고서의 검증을 수행하고, 국제 표준 준수 여부를 따져 검증 보고서를 발행한다. 로이드인증원(LRQA)는 현재 160개 이상의 국가에서 국제 표준 인증 및 검증을 실시하고 있다. ‘ISO 14067 검증’은 LCA(Life Cycle Assessment, 전 과정 평가)에 대한 국제 표준 ISO 14040과 ISO 14044를 기반으로 정의된 제품탄소발자국 계산법과 보고방식에 따라 기업을 평가하고, 해당 요구사항을 충족하는 경우에만 주어지는 가장 권위 있는 국제적인 검증이다. ISO 14067 검증 획득은 제품탄소발자국, 즉 제품 수명주기의 전 과정에서 나오는 탄소배출량을 측정 및 보고함에 있어 국제사회가 요구하는 원칙과 요구사항, 지침을 준수하고 있다는 것을 의미한다. 글래스돔은 개발 초기부터 ISO 14067 기준에 맞춰 SaaS (Software as a Service) 기반 제품탄소발자국 솔루션을 개발했다. 이번 검증 획득을 통해 글래스돔 솔루션이 제품탄소발자국을 산출하는 방식과 보고서가 모두 ISO 14067에 기반해 구현됐음을 인정받고 EU CBAM, 디지털 배터리 여권 등 글로벌 환경 규제에 더욱 적극적으로 대응할 수 있게 됐다. 특히 CBAM에서 EU지역 수출기업에 요구하는 제3자 검증 절차를 간소화할 수 있게 됐다. 예를 들면 기업이 글래스돔의 제품탄소발자국 솔루션을 통해 탄소배출량을 측정·보고하면, ISO 14067 국제표준을 준수한 결과를 얻게 되므로 △검증기간 단축 △비용 절감 △업무 간소화의 이점을 누리게 된다. EU CBAM은 EU지역으로 철강, 알루미늄 등 6개 품목의 제품을 수출하는 기업이 제품 생산 과정에서 발생한 탄소배출량을 의무보고하고 그에 따라 탄소세를 부과하는 제도이다. 2025년 전환 기간까지는 탄소배출량 측정과 보고가 의무화되며, 본격 시행되는 2026년부터는 공인기관을 통한 제3자 검증과 무상할당량을 제외한 탄소배출량에 대한 CBAM 인증서 구입 및 제출 의무가 추가된다. 특히 제3자 검증은 기업이 제출한 탄소배출량 보고서에 대한 데이터 신뢰성 등을 확인하는 절차인데, 최소 3주에서 길게는 두세달 이상의 시간이 걸리고, 검증 비용도 상당해 수출기업의 입장에서는 부담 요인이다. 글래스돔은 리얼 데이터에 기반해 제품의 탄소발자국 생애 주기를 관리할 수 있는 기술을 보유한 기업이다. 자체 개발한 제품탄소발자국 솔루션을 통해 글로벌 환경규제에 완벽하게 대응할 수 있도록 제조 공정 과정의 데이터 수집에서부터 모니터링, 리포팅까지 원스톱으로 지원한다. 정확한 실측 데이터를 활용하기 때문에 탄소배출량이 부풀려져 페널티를 받거나 보고서를 인증받지 못할 위험성이 없다. 또한 제조 협력사의 민감한 정보를 보호하기 위해, 실시간으로 수집한 데이터를 분석해 탄소배출량으로 변환 후 해당 데이터만 전송하는 것이 특징이다. 대표적인 고객사로 롯데알미늄, 조일알미늄이 있다. 로이드인증원(LRQA) 이일형 대표는 “ESG 경영을 위한 기업의 탄소배출량 관리는 거스를 수 없는 글로벌 흐름인 상황에서 글래스돔은 제품탄소발자국 솔루션을 발빠르게 선보이며 시장을 선도하고 있다”며 “이번 ISO 국제 표준 검증 획득을 통해 대내외적으로 기술 경쟁력을 알리는 계기가 될 것”이라고 밝혔다. 글래스돔코리아 함진기 대표는 “글래스돔의 제품탄소발자국 솔루션은 EU지역으로 수출 시 필요한 제3자 검증에 소요되는 시간과 비용을 획기적으로 줄여준다”며 “글로벌 수준의 정확한 탄소배출량 산정과 빠르고 안정적인 제3자 검증을 지원해 유럽에 수출하는 국내 기업들이 경쟁력을 확보할 수 있도록 적극 돕겠다”고 말했다. 웹사이트: http://www.glassdome.com
-
콩가텍, µATX 서버 캐리어 보드,인텔 제온 프로세서 기반 COM-HPC 서버 온 모듈 출시콩가텍이 µATX 폼팩터의 서버 캐리어 보드와 최신 인텔 제온 D 프로세서(아이스레이크) 기반 COM-HPC 서버 온 모듈을 출시하며 자사의 모듈형 에지 서버 생태계를 확장한다. 새롭게 출시된 COM-HPC 모듈용 µATX 서버 보드는 에지 애플리케이션 및 핵심 인프라에 사용하는 소형 리얼타임 서버용으로 개발돼 최신 고성능 COM-HPC 서버 모듈과 함께 사용해 유연하게 확장할 수 있다. 고객은 최신 인텔 제온 D-1800과 D-2800 프로세서를 탑재한 신규 업데이트 모듈과 함께 공간 절약 및 견고한 설계로 고성능을 요구하는 애플리케이션에 즉시 사용할 수 있는 µATX 플랫폼을 선택할 수 있다. 콩가텍은 첨단 컴퓨팅 솔루션 공급업체로서 이번 µATX 캐리어 보드 출시로 요구조건이 까다로운 산업용 애플리케이션에 즉시 사용가능한 제품 개발을 지원한다. COM-HPC 모듈과 µATX 캐리어 보드의 생태계는 개발자의 필요에 따라 모듈, 보드 그리고 시스템 수준에서 자유롭게 선택할 수 있는 광범위한 맞춤설정 옵션을 OEM 업체에 제공한다. 생태계 패키지는 에지 컴퓨팅의 엄격한 요건에 맞춰져 있으며, 산업 환경에서 바로 사용가능한 강력하고 신뢰성 높은 빌딩 블록을 제공한다. 이러한 모듈형 접근방식을 통해 사용자는 새로운 설계의 출시 시간을 단축하고 미래에도 경쟁력을 갖춘 설계가 가능하다. conga-HPC/uATX 서버를 위한 새로운 µATX 캐리어 보드는 소형 표준 폼팩터에서 최대의 입출력 및 확장 옵션을 제공한다. 이에 µATX 캐리어 보드는 가상머신(VM)을 위한 서버 통합, 에너지 마이크로그리드용 에지 서버, 영상 처리, 안면 인식, 보안 애플리케이션, 스마트시티 인프라 등 다양한 애플리케이션에 이상적인 솔루션이 될 것이다. conga-HPC/uATX 서버는 이러한 애플리케이션 구동을 위해 최대 100GbE 속도와 대역폭의 강력한 통신 옵션뿐 아니라 GPGPU 또는 컴퓨팅 가속기를 통해 AI 집약적 워크로드를 처리하기 위한 x8 및 x16 PCIe 확장, 2개의 NVMe SSD용 M.2 Key M 슬롯, 컴팩트 AI 가속기용 M.2 Key B 슬롯, WiFi 또는 LTE/5G용 통신 모듈 등 다양한 기능을 제공한다. 새롭게 출시된 conga-HPC/sILL 및 conga-HPC/sILH 서버 온 모듈은 최신 인텔 아이스레이크 D-1800 LCC 및 D-2800 HCC 프로세서 시리즈를 탑재해 이전의 D-1700/D-2700 시리즈 8 대비 동일한 TDP(열설계전력)에서 성능을 최대 15%까지 높였다. 새로운 COM-HPC 모듈의 향상된 와트당 성능은 이전에 열 소모 비용으로 제한됐던 고성능 애플리케이션에 이상적이다. 또한, 인텔 스피드 셀렉트 기술(Speed Select Technology)로 시스템 설계의 컴퓨팅 성능과 최대 TDP를 균형 있게 관리할 수 있다. 최신 프로세서는 클록 속도(clock speed)가 향상된 최대 22개의 코어를 탑재하고 있어 와트당 더 많은 성능을 갖춘 차세대 에지 애플리케이션 지원을 지원하고, 이에 따라 에너지 효율성이 개선되고 신뢰성 높은 설계를 제공한다. 확장 가능한 에지 성능과 모듈형 접근방식은 설계의 유연성과 미래 보장성을 높이며 총소유비용을 낮추고 출시 기간을 단축한다. COM-HPC 서버 모듈은 서버와 VM의 통합을 용이하게 하는 펌웨어 통합 하이퍼바이저를 탑재하며, TCC, TCN 및 선택 사양인 SyncE 지원으로 제공되는 완벽한 실시간 기능도 함께 지원한다. 특히 이는 매우 짧은 대기 시간과 주파수/클록의 엄격한 동기화를 요구하는 모든 5G 네트워크 솔루션에 적합하다. 콩가텍은 새로운 COM-HPC 서버 온 모듈 기반 µATX 솔루션 플랫폼을 위해 소형 섀시용 수동 냉각을 포함한 다양한 종합적 냉각 솔루션도 제공한다. 이 서비스 패키지는 conga-HPC/uATX 서버 캐리어 보드 맞춤구성 외에도 고객별 BIOS/UEFI 및 실시간 하이퍼바이저 구현과 디지털화를 위한 추가 IIoT 기능 확장도 포함한다. 웹사이트: https://www.congatec.com/ko
-
에너자이, AI 추론 최적화 엔진 ‘Optimium’ 베타 테스트 개시에너자이가 개발된 AI 모델의 편리한 배포를 지원하는 자동 추론 최적화 엔진 ‘Optimium’의 베타 테스트를 시작했다고 밝혔다. AI 모델이 스마트폰, 자동차, CCTV를 포함한 일상 속 다양한 디바이스에 본격적으로 적용되면서 배포 대상 하드웨어 환경 내 AI 모델 성능을 향상시키는 AI 추론 최적화 기술이 주목받고 있다. 최근 공개된 갤럭시 S24 시리즈의 온디바이스 AI 기능 구현에도 AI 추론 최적화 기술이 활용됐으며, 점차 다양한 하드웨어 환경에 고성능 AI 모델이 적용되는 사례가 지속적으로 증가함에 따라 AI 추론 최적화 기술의 중요성 또한 커질 것으로 전망된다. 이에 에너자이는 가장 뛰어난 성능 및 배포 편의성을 보장하는 자동 추론 최적화 엔진 ‘Optimium’을 개발 완료해 베타 테스트를 앞두고 있다. 사용자들은 Optimium을 통해 학습된 AI 모델의 정확도를 보존하면서 배포 대상 하드웨어 환경 내 추론 속도를 향상시킬 수 있다. 그뿐만 아니라 하드웨어 환경별로 다른 제품을 사용해야 하는 기존 추론 최적화 엔진들과는 다르게 Optimium 하나의 제품으로 다양한 하드웨어 환경에 AI 모델을 배포하는 것이 가능하며, Optimium에 연동된 기존 추론 최적화 엔진들 기반으로 배포 대상 하드웨어의 자원을 보다 효율적으로 활용할 수 있다. 이번 베타 테스트는 CPU를 대상으로 한 컴퓨터 비전(Computer Vision) 모델의 추론 최적화를 우선적으로 지원하며, CPU 환경 내 컴퓨터 비전 모델 추론 최적화에 대한 니즈를 보유하고 있는 스마트폰, 자동차, AR/VR, 보안, 로보틱스, 노트북/PC, 가전 등의 다양한 분야 내 주요 업체들이 베타 테스트 시작 전부터 관심을 표하고 있다. 장한힘 에너자이 대표는 “2~3주 간격으로 업데이트를 진행해 하드웨어, 데이터 유형, 연산자 등 최적화 지원 범위를 확장해 나갈 계획”이라며 “이번 베타 테스트를 통해 Optimium의 기술 경쟁력을 시장에 알리고, 테스트 결과를 기반으로 고객들의 다양한 추론 최적화 니즈에 효과적으로 대응할 수 있는 제품을 완성할 것”이라는 포부를 밝혔다. 웹사이트: https://www.enerzai.com
-
안랩, SaaS 육성 사업 ‘MSP 지원기업’으로 선정안랩이 정부에서 국내 SaaS(Software as a Service, 서비스형 소프트웨어) 기업을 대상으로 추진하는 다양한 SaaS 육성 및 개발 지원 사업에서 ‘MSP 공급기업(MSP Pool)’으로 선정돼 안전한 클라우드 전환을 위한 서비스를 제공한다고 밝혔다. 안랩은 3월 △과학기술정보통신부·한국지능정보사회진흥원(NIA·National Information society Agency)이 주관하는 ‘공공부문 이용 SaaS 개발·검증(공공SaaS트랙)’ △과학기술정보통신부·정보통신산업진흥원(NIPA·National IT industry Promotion Agency)이 주관하는 ‘2024년도 SaaS 개발 지원 사업’ 등에서 ‘MSP(클라우드 관리서비스 제공사) 공급기업(MSP Pool)’으로 선정됐다. 두 사업은 정부가 국내 SaaS 산업 생태계 조성 및 활성화를 위해 추진 중인 사업이다. 안랩은 수요기업에 보안 특화 클라우드 관리서비스 ‘안랩 클라우드’의 △SaaS 개발 및 구축을 위한 아키텍처 컨설팅 △SaaS 개발·운영을 위한 인프라 서비스 △클라우드 환경 구축 및 고도화 △클라우드 운영 관리 등을 제공한다. 또한, SaaS 기업 인큐베이팅·고도화 교육과 CSAP 인증 획득 관련 자문 등도 제공할 예정이다. ‘공공부문 이용 SaaS 개발·검증(공공SaaS트랙)’ 사업 참여를 원하는 기업은 4월 2일(화)까지 한국지능정보사회진흥원(NIA) 제안서 접수시스템에서 온라인 접수가 가능하다. ‘2024년도 SaaS 개발 지원 사업’은 3월 29일(금)까지 정보통신산업진흥원(NIPA) 사업성과관리시스템에서 온라인으로 접수하면 된다. 안랩이 이번 사업에서 제공하는 ‘안랩 클라우드’는 안랩이 축적해 온 클라우드 보안에 대한 경험이 녹아 있는 클라우드 관리서비스다. 안랩 클라우드를 도입한 고객은 클라우드 도입부터 운영까지 보안이 ‘빌트인(Built-in)’된 클라우드 관리서비스를 제공받아 보안성과 안정성이 강화된 클라우드 환경을 구축할 수 있다. 웹사이트: http://www.ahnlab.com
-
데이터브릭스, 엔비디아 협력 확대..데이터 인텔리전스 플랫폼 데이터 AI 워크로드 가속화데이터브릭스(Databricks)가 엔비디아(NVIDIA)와의 협력을 확대하고 기술 통합을 강화한다고 밝혔다. 이러한 발표 사항은 엔비디아가 주최한 GTC 2024 컨퍼런스에서 공유되었으며, 양사는 데이터브릭스의 데이터 인텔리전스 플랫폼(Data Intelligence Platform)에서 데이터 및 AI 워크로드를 최적화하는 데 박차를 가할 계획이다. 이번 협력은 최근 엔비디아가 데이터브릭스 시리즈 I 투자에 참여한 것의 연장선이기도 하다. 알리 고드시(Ali Ghodsi) 데이터브릭스 공동창립자 겸 CEO는 “이번 파트너십 확장으로 엔비디아의 가속 컴퓨팅 및 소프트웨어를 통해 데이터브릭스의 워크로드를 가속화하고 고객에 보다 많은 가치를 제공할 수 있게 되어 기쁘다"며, “엔비디아는 분석 사용 사례에서 AI에 이르기까지 데이터브릭스의 기본 모델 이니셔티브를 다수 지원해 왔다. 쿼리 가속화를 위한 상호 협력을 통해 더 많은 기업에게 가치를 입증할 수 있을 것으로 기대한다”고 말했다. ▶엔드투엔드 AI 솔루션을 위한 GPU 지원 가속화 오늘날 조직은 데이터로 훈련되고 비즈니스와 도메인에 맞게 맞춤화된 생성형 AI 솔루션을 구축 및 커스터마이징하기 위해 데이터브릭스의 데이터 인텔리전스 플랫폼을 신속하게 도입하고 있다. 데이터브릭스 모자이크 AI와 엔비디아는 데이터브릭스의 엔드투엔드 플랫폼에서의 생성형 AI 모델 구축과 배포를 향상하기 위해 모델 훈련 및 추론 분야에서 협력할 방침이다. 데이터브릭스는 데이터 및 모델 전반에 대한 완벽한 제어와 거버넌스는 물론, 생성형 AI 솔루션을 구축, 테스트 및 배포하기 위한 포괄적인 툴 세트를 제공한다. 데이터브릭스 모자이크 AI는 생성형 AI 모델 훈련을 위해 대형 언어 모델(LLM) 개발에 최적화된 엔비디아 H100 텐서 코어 GPU(NVIDIA H100 Tensor Core GPU)를 사용한다. 이로써 모자이크 AI는 엔비디아 가속 컴퓨팅의 성능을 활용하고, 고객을 위해 LLM을 커스터마이징할 수 있는 효율적이며 확장 가능한 플랫폼을 제공할 수 있게 된다. 한편, 데이터브릭스는 모델 배포를 위해 스택 전반에서 엔비디아 가속 컴퓨팅 및 소프트웨어를 활용한다. 데이터브릭스 모자이크 AI 모델 서빙(Mosaic AI Model Serving)의 핵심 구성 요소는 최첨단 성능을 제공하고 솔루션의 비용 효율성, 확장성 및 성능을 보장하는 엔비디아 텐서RT-LLM(NVIDIA TensorRT-LLM) 소프트웨어다. 모자이크 AI는 텐서RT-LLM의 출시 파트너로서 엔비디아 팀과 긴밀한 기술 협력을 이어왔다. ▶엔비디아 가속 컴퓨팅을 통해 쿼리 성능을 향상하는 포톤(Photon) 데이터브릭스는 자사의 벡터화된 차세대 쿼리 엔진인 포톤에서 엔비디아 가속 컴퓨팅에 대한 기본적인(native) 지원을 제공하고, 이로써 고객의 데이터 웨어하우징 및 분석 워크로드의 속도와 효율성을 개선한다는 계획이다. 포톤은 업계 최고 수준의 가격 대비 성능과 총소유비용(TCO)을 자랑하는 데이터브릭스의 서버리스(serverless) 데이터 웨어하우스인 데이터브릭스 SQL(Databricks SQL)을 구동하고 있다. 데이터 쿼리 처리를 위해 GPU를 사용하는 데이터브릭스 고객이 늘어나는 가운데, 양사의 협력은 이러한 성장을 더욱 가속화할 것으로 기대된다. ▶데이터브릭스의 머신러닝 및 딥러닝 지원 데이터브릭스에서 머신러닝(ML)과 딥러닝은 중요한 워크로드다. 데이터브릭스 머신러닝은 엔비디아 GPU를 포함하는 사전 구축된 딥러닝 인프라를 제공하며, ML용 데이터브릭스 런타임에는 드라이버와 라이브러리 등 사전 구성된 GPU 지원이 포함되어 있다. 사용자는 이러한 툴을 통해 적합한 엔비디아 인프라를 기반으로 신속하게 작업을 시작할 수 있을 뿐만 아니라, 사용자 간 일관된 환경을 유지할 수 있다. 데이터브릭스는 3대 주요 클라우드에서 엔비디아 텐서 코어 GPU를 지원해, ML 워크로드를 위한 고성능 단일 노드 및 분산 훈련을 지원한다. 젠슨 황(Jensen Huang) 엔비디아 창립자 겸 CEO는 “AI 시대에서 기업이 보유하고 있는 데이터는 인텔리전스를 도출하는 데 필요한 매우 중요한 자산이다"라고 설명하며, “엔비디아와 데이터브릭스는 효율성을 개선해 더욱 우수한 인사이트와 결과를 얻고자 하는 기업을 위해 데이터 처리를 가속화하고, 이로써 AI의 개발과 배포를 향상할 수 있다"고 말했다.
-
클라우드플레어, 킨드릴 글로벌 전략적 제휴 발표클라우드플레어(Cloudflare)가 킨드릴(Kyndryl)과 글로벌 전략적 제휴를 통해 파트너십을 확대한다. 양사는 기업이 멀티 클라우드 연결과 네트워크 보안을 위해 네트워크를 마이그레이션하고, 관리할 수 있도록 지원한다는 방침이다. 이번 파트너십을 통해 엔드 투 엔드 컨설팅 서비스 및 기업 네트워킹, 보안, 복원력 등 전반에 대한 킨드릴의 전문성과 올인원 클라우드 유연성을 제공하는 클라우드플레어의 강력한 커넥티비티 클라우드가 결합해 시너지를 발휘할 것으로 기대된다. 클라우드플레어와 킨드릴은 작년 5월 첫 파트너십을 통해 엔드 투 엔드 서비스로 기업 인프라를 현대화하여 전체 기업 네트워크에 서비스형 WAN(WAN-as-a-Service)과 클라우드플레어 제로 트러스트 서비스를 제공하고 있다. 양사는 현재 고객의 주요 시스템을 설계, 구축, 관리 및 최신화하기 위해 모든 기술 스택 전반을 혁신하는 데 집중하고 있으며, 이제 네트워크 및 에지, 보안 및 복원력을 포함한 킨드릴의 전반적인 실무 영역에서 클라우드플레어의 기능을 사용할 수 있게 된다. 양사의 파트너십 이래 미국의 공급망 유통 업체부터 스페인의 주요 금융 기관, 인도의 주요 상용차 제조업체인 아쇽 레일랜드에 이르기까지 전 세계 다양한 분야의 기업이 네트워크 최신화, 보안 및 성능 솔루션을 위해 클라우드플레어와 킨드릴을 채택했다. 비노드 고피나탄(Vinod Gopinathan) 아쇽 레일랜드 최고정보책임자(CIO)는 “세계 최고 자동차 제조업체로서 글로벌 IT 인프라를 원활하게 운영하기 위해서는 강력하고 안전한 네트워크가 반드시 필요하다. 딜러 관리부터 차량 추적에 이르기까지 50개 이상의 인터넷 애플리케이션을 중단 없이, 또는 최소한의 중단과 강화된 보안을 기반으로 실행해야 한다”며 “클라우드플레어의 디도스 보호 및 완화 솔루션이 포함된 킨드릴의 관리형 서비스를 통해 아쇽 레일랜드는 기술 혁신, 고급 엔지니어링, 향상된 연결성(Connectivity)을 추구하는 데 집중할 수 있게 되었다”고 말했다. 클라우드플레어는 킨드릴의 네트워크 서비스 전환을 지원하고 디도스 완화를 비롯한 클라우드 사이버 보안 보호를 제공해 왔다. 현재 클라우드플레어는 킨드릴의 인터넷 자산을 보호하고 있으며, 킨드릴은 추가 비용 없이 원활하게 전환할 수 있는 셀프 서비스 모델로 운영되고 있다. 클라우드플레어의 글로벌 커넥티비티 클라우드 네트워크와 보안 서비스를 도입한 뒤, 킨드릴은 IT 인프라 비용을 절감하고 웹 트래픽이 가속화했으며, 데이터 부하 분산 성능을 개선할 수 있었다. 폴 사빌(Paul Savill) 킨드릴 네트워킹 및 에지 컴퓨팅 글로벌 책임자는 “우리는 클라우드플레어와 협력하여 기업이 차세대 네트워크로 마이그레이션하고 고급 클라우드 기능을 활용하여 민첩성과 혁신을 달성할 수 있도록 지원하고 있다. 클라우드 네트워킹 및 제로 트러스트 분야의 업계 리더인 클라우드플레어와의 파트너십을 더욱 공고히 하게 되어 기쁘게 생각한다”며 “킨드릴의 전문적인 관리 및 컨설팅 서비스로 양사의 고객이 비용을 절감하고 운영 효율성을 개선하는 동시에 IT 인프라를 보호, 간소화 및 단순화할 수 있도록 지원할 예정이다”고 말했다. 맷 해럴(Matt Harrell) 클라우드플레어 글로벌 채널 및 제휴 담당 총괄은 “클라우드플레어와 킨드릴은 기업이 네트워크 마이그레이션 및 클라우드 전반 혁신에서 전적으로 의지할 수 있는 최상의 조합이다. 우리는 고객과 협업하며 클라우드플레어의 선도적인 커넥티비티 클라우드 및 비즈니스 환경을 위한 포괄적인 사이버 보안과 킨드릴이 제공하는 업계 최고의 컨설팅 및 관리형 네트워크 서비스에 대한 수요와 그 효과를 확인할 수 있었다”며 “킨드릴과 파트너십을 체결한 후 클라우드플레어는 자사 서비스를 새로운 차원으로 확장할 수 있었다. 우리는 이제 글로벌 전략적 제휴를 통해 클라우드 여정의 단계에 구애받지 않고 모든 기업을 전체 네트워크 스택 전반에서 지원할 수 있게 되었다”고 말했다.
-
스노우플레이크, 엔비디아 파트너십 풀스택 AI 플랫폼 제공스노우플레이크(Snowflake)가 엔비디아와의 파트너십을 강화한다고 발표했다. 인공지능(AI)을 활용해 기업 고객의 생산성을 높일 수 있도록 지원하는 것으로, 스노우플레이크의 데이터 기반과 안정성 높은 데이터 클라우드의 AI 기술을 풀스택 엔비디아 가속 플랫폼에 결합할 수 있게 된다. 양사는 AI의 생산성과 비즈니스 속도를 높이고 여러 산업군에 걸쳐 새로운 비즈니스 기회를 확대하도록 설계된 인프라와 컴퓨팅 기술을 결합해 안전하고 강력한 기능을 제공한다. 슈리다 라마스워미(Sridhar Ramaswamy) 스노우플레이크 CEO는 “데이터는 AI의 원동력으로, 효과적인 AI 전략 수립에 매우 중요하다. 스노우플레이크는 엔비디아와의 협력으로 신뢰할 수 있는 기업 데이터를 위한 안전하고 확장 가능하며 사용이 용이한 플랫폼을 제공하게 됐다”며 “특히 기술 전문성에 상관없이 모든 사용자가 AI를 사용할 수 있게 해 누구나 AI 기술 혜택을 얻도록 지원한다”고 말했다. 젠슨 황(Jensen Huang) 엔비디아 창립자 겸 CEO는 “기업 데이터는 비즈니스 인텔리전스를 확보할 수 있는 커스터마이징 AI 애플리케이션의 근간”이라며 “엔비디아 가속 컴퓨팅 및 소프트웨어를 스노우플레이크의 데이터 플랫폼에 적용함으로써 고객이 기업 전용의 생성형 AI 애플리케이션을 구축, 배포 및 관리할 수 있게 된다. 이로써 고객들은 AI를 현업에서 쉽게 도입해 사용할 수 있게 한다”고 설명했다. 지난해 6월, 스노우플레이크와 엔비디아가 엔비디아 네모(NeMo) 통합 기능을 확대한다고 발표한 바 있다. 이번에 강화된 파트너십에서 스노우플레이크는 자사 플랫폼에서 데이터 보안, 개인정보보호 및 거버넌스를 원활하게 유지하면서 직접 엔비디아의 네모 리트리버(NeMo Retriever)를 활용할 수 있게 된다. 네모 리트리버는 기업이 맞춤형 LLM을 기업 데이터에 연결할 수 있는 생성형 AI 마이크로 서비스다. 이를 기반으로 챗봇 애플리케이션의 성능과 확장성을 개선하고 스노우플레이크 코텍스(Snowflake Cortex, 프리뷰 공개)로 AI 애플리케이션을 구축한 400개 이상의 기업이 보다 빠르게 비즈니스 가치를 실현할 수 있도록 지원한다. 또한 딥 러닝 추론 애플리케이션에 짧은 지연 시간과 높은 처리량을 제공하는 엔비디아 텐서RT(TensorRT)를 활용할 수 있어 기업 고객의 LLM 기반 검색 기능이 향상될 것으로 기대된다고 말했다. 웹사이트: https://www.snowflake.com/?lang=ko
-
쿠콘, 시스템 통합보안관제센터 개편 통해 관제 효율 높인다쿠콘이 ‘시스템 통합보안관제센터(이하 관제센터)’를 새롭게 단장했다. 쿠콘은 서울 영등포구 본사에 위치한 관제센터를 개편했다고 19일 밝혔다. 지난 2017년 개소한 쿠콘의 관제센터는 규모가 확장돼 현재 2000여대의 인프라 운영 장비를 보유하고 있다.쿠콘은 최근 데이터를 기반으로 한 혁신 서비스가 늘어남에 따라 쿠콘 API를 도입하는 기업과 데이터 거래량이 증가했다며, 이에 대비해 고객사에 수준 높은 서비스를 제공하기 위해 내부적으로 다양한 개선점을 발굴해가고 있다고 리뉴얼 배경을 설명했다. 새롭게 단장한 관제센터에는 20여명의 전문 인력이 365일 24시간 근무하며 고객사의 네트워크 트래픽, 응답시간 등 모든 운영 현황을 모니터링하고 실시간으로 대응해 원활한 고객 서비스를 지원한다.쿠콘은 현재 이중화된 금융보안 클라우드센터와 관제센터를 통해 쿠콘 서비스를 안정적으로 운영하고 있다. 특히 금융보안 클라우드센터는 대형 금융기관 수준의 우수한 보안 인프라를 갖추고 있다. 이를 바탕으로 쿠콘은 금융기관, 대기업 등 1900여개 고객사에 데이터 및 페이먼트 서비스를 제공하며 업계 내 독보적인 경쟁력을 인정받고 있다. 쿠콘은 고객사에 더욱 안전한 관제 서비스를 제공하고자 수시로 방화벽 정책, 패치 적용 등 다양한 사이버 위협에 대한 보안 대책을 마련하고 있다. 더불어 서비스 장애를 사전에 방지하기 위해 △노후화 장비 교체 △OS 업그레이드 △차세대 보안 시스템 고도화 등 다각도의 노력을 펼치고 있다. 이번 관제센터 리뉴얼을 계기로 쿠콘은 서비스 안정성을 대폭 강화해 철저한 상시 장애 예방과 신속한 대응·복구 등 보다 효과적인 관제 체계를 갖추게 됐다.쿠콘 김종현 대표는 “쿠콘 API를 더욱 안정적으로 제공하기 위해 내부적으로 많은 노력을 기울이고 있다”며 “쿠콘은 앞으로도 보안 관제 체계를 꾸준히 고도화해 고객사가 품질 높은 서비스를 이용할 수 있도록 최선을 다하겠다”고 말했다. 웹사이트: http://www.coocon.net
-
인피니언, 70% 더 낮은 전력 빠른 스위칭 제공 솔리드 스테이트 아이솔레이터 출시인피니언 테크놀로지스는 새로운 솔리드 스테이트 아이솔레이터 제품군을 출시한다고 밝혔다. 신제품은 광학 기반의 솔리드 스테이트 릴레이(SSR)에서 제공되지 않는 보호 기능을 사용해서 더 빠르고 안정적인 회로 스위칭을 달성한다. 코어리스 트랜스포머 기술을 적용하고 전류 및 온도 보호 기능으로, 20배 더 높은 에너지 전송을 지원해 신뢰성을 높이고 소유 비용을 낮춘다. 새로운 솔리드 스테이트 아이솔레이터는 인피니언의 MOS 제어 전력 트랜지스터인 OptiMOS™ 및 CoolMOS™의 게이트를 구동해, SCR(실리콘 제어 정류기)나 트라이액(Triac) 스위치를 사용한 솔리드 스테이트 릴레이 대비 전력 손실을 최대 70%까지 줄인다. 인피니언의 솔리드 스테이트 아이솔레이터는 1000V 및 100A 이상의 부하를 제어할 수 있는 맞춤형 솔리드 스테이트 릴레이를 가능하게 한다. 코어리스 트랜스포머 기술은 향상된 성능과 신뢰성으로 첨단 배터리 관리, 에너지 저장, 신재생 에너지 시스템, 산업용 및 빌딩 자동화 시스템 애플리케이션에 적합하다. 인피니언의 솔리드 스테이트 아이솔레이터 드라이버를 사용해서 엔지니어들이 전자 및 전기기계 시스템의 효율을 더욱 높일 수 있게 됐다. 인피니언 테크놀로지스 산업용 전력 사업부의 다비데 지아코미니(Davide Giacomini) 마케팅 디렉터는 “솔리드 스테이트 아이솔레이터와 릴레이에 코어리스 트랜스포머를 구현한 것은 전력 엔지니어들에게 중요한 변화가 될 것”이라며 “이 기술은 기존의 광학 제어 솔루션 대비 50배 낮은 RDS(on)를 제공한다. 따라서 고전압 및 고전력 애플리케이션에 사용할 수 있다”고 말했다. 아이솔레이터 드라이버를 인피니언의 CoolMOS S7 스위치와 사용하면 광학 구동 솔리드 스테이트 솔루션 대비 저항이 훨씬 낮은 스위칭 디자인이 가능하다. 이것은 시스템 디자인의 수명을 연장하고 소유 비용을 낮춘다. 또한 모든 솔리드 스테이트 아이솔레이터와 마찬가지로 40% 낮은 턴온 전력과 이동 부품 제거로 인한 신뢰성 향상 등 전자기 릴레이 대비 훨씬 뛰어난 성능을 제공한다. 웹사이트: http://www.infineon.com
-
클레온, '엔비디아 GTC 2024' 디지털 휴먼 기술 공개클레온이 2024년 3월 18일부터 21일까지 진행되는 글로벌 AI 컨퍼런스인 ‘엔비디아 GTC’에서 최신 혁신 기술을 공개한다. 이번에 공개하는 기술은 인간과 같은 다양한 감정을 표현하고 대화가 가능한 ‘디지털 휴먼’으로, 엔비디아 기술을 기반으로 2년 이상 진행한 연구 개발의 결과물이다. 이 기술은 2024년 상반기 출시 예정인 클레온의 실시간 대화형 디지털 휴먼 채팅 솔루션인 ‘크리챗’에 적용된다. 크리챗은 유명인 IP와 클레온의 기술을 결합한 디지털 휴먼과 사용자와 음성 및 영상을 통해 실제와 같은 대화를 나눌 수 있는 앱이다. 클레온은 감정 데이터를 기반으로 자연스러운 표정과 움직임 구현에 주력하며 디지털 휴먼 기술의 선두에 서 왔다. 클레온은 특히 엔비디아 A2F (Audio2Face) 애플리케이션을 활용해 디지털 휴먼의 미묘한 감정 표현을 구현하는 데 성공했으며, 이외에도 엔비디아의 최첨단 GPU와 전문 기술을 활용해 이 분야에서 상당한 발전을 이뤘다. 클레온은 기술 발전을 통한 산업 혁신적인 스타트업 육성 프로그램인 ‘엔비디아 인셉션’의 멤버이기도 하다. 이 프로그램은 클레온의 감정 데이터를 기반으로 다양한 표정과 움직임을 표현하는 디지털 휴먼 개발을 위한 연구, 리소스 및 협업 혁신을 지원하고 있다. 사진 한 장과 30초 분량의 음성 데이터로 디지털 휴먼을 생성하는 클레온의 핵심 기술은 생성 AI 분야에서의 중요한 도약을 의미한다. 지난해 11월 클레온은 세계 최초로 ‘헤드스왑’ 기술을 상용화해 이를 자체 개발한 디지털 휴먼 영상 제작 솔루션인 ‘클론’에 완벽하게 통합하는데 성공했다. 헤드스왑은 사람의 얼굴을 포함한 전체 두상 이미지를 원하는 대상의 두상으로 교체하는 기술이다. 클레온 ‘헤드 스왑’ 기술의 핵심은 단 한 장의 얼굴 사진만으로 얼굴형, 머리카락, 피부 질감까지 얼굴 특징과 구조를 자동 인식하고, 이 정보를 바탕으로 고도의 정밀한 디지털 휴먼을 생성한다는 점이다. 이를 통해 디지털 휴먼 제작 시간과 비용을 크게 줄일 수 있다. 클레온이 엔비디아 GTC에서 그간의 연구 결실을 공개할 준비를 하면서 업계의 기대감이 커지고 있다. 엔터테인먼트, 교육, 상담 등 감정 표현이 가능한 디지털 휴먼에 대한 시장성은 점점 더 확대되고 있으며, 잠재력은 무궁무진하다. 웹사이트: https://www.klleon.io