검색결과
-
IAR, 르네사스 최초의 범용 RISC-V MCU에 대한 동급 최고의 지원 발표IAR은 르네사스(Renesas)가 자체 개발한 CPU 코어를 탑재한 최초의 범용 32비트 RISC-V MCU를 지원하는 자사의 프리미엄 개발 환경에 대한 기능 강화판을 발표했다. 이 향상된 제품은 르네사스 스마트 컨피규레이터(Renesas Smart Configurator) 툴키트, 설계 예제, 풍부한 문서, 그리고 르네사스 고속 프로토타이핑 보드(FPB)에 대한 지원과 완벽하게 통합된 고급 디버깅 기능과 정교한 컴파일러 최적화가 포함된다. ▶IAR, 르네사스 최초의 범용 RISC-V MCU 관련 동급 최고 지원 상용 부문에서 RISC-V 아키텍처의 채택이 지속적으로 증가함에 따라 강력하고 안정적이며 종합적인 개발 도구의 필요성이 보다 명확해지고 있다. IAR은 개발자의 생산성을 향상시키고 최신 개발 규정에 필수적인 기능 안전과 자동화된 워크플로의 중요한 측면을 통합하는 첨단 툴체인을 통해 이러한 요구를 충족한다. RISC-V용 IAR 솔루션은 가전 기기, 의료 기기, 소형 기기, 산업용 시스템 등 광범위한 시장에 존재하는 다양한 애플리케이션을 위해 설계됐다. 르네사스의 임베디드 프로세싱 1사업부를 총괄하는 대릴 쿠(Daryl Khoo) 부사장은 “IAR은 르네사스 도구 에코시스템에서 오랫동안 긴밀한 관계를 유지하고 있는 소중한 파트너로, IAR 임베디드 워크벤치를 통해 르네사스의 다양한 MCU 아키텍처에 대한 탁월한 지원을 제공하고 있다”며 “따라서 르네사스가 자체 개발한 RISC-V 코어를 사용하는 최초의 MCU인 새로운 R9A02G021 MCU 사용자에게 IAR의 인기 있고 완벽한 개발 솔루션을 제공하기 위해 IAR과 초기 단계부터 협력할 수 있어 매우 기뻤다”고 말했다. ▶RISC-V 사용자를 위한 혁신적인 이점: ·생산성 향상: IAR은 르네사스 32비트 RISC-V MCU를 완벽하게 지원해 RISC-V 기반 애플리케이션의 개발 프로세스를 최적화한다. 이는 르네사스 스마트 컨피규레이터 코드 생성 툴키트 및 고속 프로토타이핑 보드(FPB)와 매끄럽게 통합돼 개발을 가속화하고 출시 시간을 단축한다. IAR I-jet 프로브가 지원하는 첨단 디버깅 기능은 정밀한 제어와 심도 있는 분석을 보장해 고품질 제품을 보다 빠르고 효율적으로 제공할 수 있게 해준다. 기능 안전성: 이 솔루션은 엄격한 안전 표준에 따라 TÜV SÜD의 인증을 받았으며 안전이 중요한 애플리케이션의 개발을 촉진하도록 설계됐다.CI/CD 파이프라인 자동화: IAR 개발 솔루션은 리눅스나 윈도에서 자동화된 워크플로와 CI (Continuous Integration) 파이프라인을 완벽하게 지원해 지속적인 개발, 테스트 및 배포 프로세스를 가능하게 한다. IAR의 앤더스 홈버그(Anders Holmberg) CTO는 “임베디드 소프트웨어 개발이 갈수록 복잡해지고 요구 사항이 끊임없이 달라지는 요즘과 같은 시대에 IAR의 포괄적인 RISC-V용 개발 솔루션은 단순한 툴세트 그 이상의 역할을 통해 혁신과 우수성에 기여한다”며 “IAR은 이미 2019년 오픈소스 명령 세트 아키텍처(ISA)를 지원하는 최초의 RISC-V 도구를 출시했으며, 르네사스 최초의 범용 32비트 RISC-V MCU의 특정 요구 사항을 충족하도록 솔루션을 맞춤화했다. 이를 통해 모든 RISC-V 상용 프로젝트는 최고 수준의 효율성, 안전성, 고품질의 이점을 누릴 수 있다. 이번 기능 강화판은 개발자의 역량을 강화하고 임베디드 RISC-V 산업 전체를 발전시키려는 IAR의 노력을 다시 한 번 확인시켜준다”고 말했다. 웹사이트: https://www.iar.com
-
콩가텍, µATX 서버 캐리어 보드,인텔 제온 프로세서 기반 COM-HPC 서버 온 모듈 출시콩가텍이 µATX 폼팩터의 서버 캐리어 보드와 최신 인텔 제온 D 프로세서(아이스레이크) 기반 COM-HPC 서버 온 모듈을 출시하며 자사의 모듈형 에지 서버 생태계를 확장한다. 새롭게 출시된 COM-HPC 모듈용 µATX 서버 보드는 에지 애플리케이션 및 핵심 인프라에 사용하는 소형 리얼타임 서버용으로 개발돼 최신 고성능 COM-HPC 서버 모듈과 함께 사용해 유연하게 확장할 수 있다. 고객은 최신 인텔 제온 D-1800과 D-2800 프로세서를 탑재한 신규 업데이트 모듈과 함께 공간 절약 및 견고한 설계로 고성능을 요구하는 애플리케이션에 즉시 사용할 수 있는 µATX 플랫폼을 선택할 수 있다. 콩가텍은 첨단 컴퓨팅 솔루션 공급업체로서 이번 µATX 캐리어 보드 출시로 요구조건이 까다로운 산업용 애플리케이션에 즉시 사용가능한 제품 개발을 지원한다. COM-HPC 모듈과 µATX 캐리어 보드의 생태계는 개발자의 필요에 따라 모듈, 보드 그리고 시스템 수준에서 자유롭게 선택할 수 있는 광범위한 맞춤설정 옵션을 OEM 업체에 제공한다. 생태계 패키지는 에지 컴퓨팅의 엄격한 요건에 맞춰져 있으며, 산업 환경에서 바로 사용가능한 강력하고 신뢰성 높은 빌딩 블록을 제공한다. 이러한 모듈형 접근방식을 통해 사용자는 새로운 설계의 출시 시간을 단축하고 미래에도 경쟁력을 갖춘 설계가 가능하다. conga-HPC/uATX 서버를 위한 새로운 µATX 캐리어 보드는 소형 표준 폼팩터에서 최대의 입출력 및 확장 옵션을 제공한다. 이에 µATX 캐리어 보드는 가상머신(VM)을 위한 서버 통합, 에너지 마이크로그리드용 에지 서버, 영상 처리, 안면 인식, 보안 애플리케이션, 스마트시티 인프라 등 다양한 애플리케이션에 이상적인 솔루션이 될 것이다. conga-HPC/uATX 서버는 이러한 애플리케이션 구동을 위해 최대 100GbE 속도와 대역폭의 강력한 통신 옵션뿐 아니라 GPGPU 또는 컴퓨팅 가속기를 통해 AI 집약적 워크로드를 처리하기 위한 x8 및 x16 PCIe 확장, 2개의 NVMe SSD용 M.2 Key M 슬롯, 컴팩트 AI 가속기용 M.2 Key B 슬롯, WiFi 또는 LTE/5G용 통신 모듈 등 다양한 기능을 제공한다. 새롭게 출시된 conga-HPC/sILL 및 conga-HPC/sILH 서버 온 모듈은 최신 인텔 아이스레이크 D-1800 LCC 및 D-2800 HCC 프로세서 시리즈를 탑재해 이전의 D-1700/D-2700 시리즈 8 대비 동일한 TDP(열설계전력)에서 성능을 최대 15%까지 높였다. 새로운 COM-HPC 모듈의 향상된 와트당 성능은 이전에 열 소모 비용으로 제한됐던 고성능 애플리케이션에 이상적이다. 또한, 인텔 스피드 셀렉트 기술(Speed Select Technology)로 시스템 설계의 컴퓨팅 성능과 최대 TDP를 균형 있게 관리할 수 있다. 최신 프로세서는 클록 속도(clock speed)가 향상된 최대 22개의 코어를 탑재하고 있어 와트당 더 많은 성능을 갖춘 차세대 에지 애플리케이션 지원을 지원하고, 이에 따라 에너지 효율성이 개선되고 신뢰성 높은 설계를 제공한다. 확장 가능한 에지 성능과 모듈형 접근방식은 설계의 유연성과 미래 보장성을 높이며 총소유비용을 낮추고 출시 기간을 단축한다. COM-HPC 서버 모듈은 서버와 VM의 통합을 용이하게 하는 펌웨어 통합 하이퍼바이저를 탑재하며, TCC, TCN 및 선택 사양인 SyncE 지원으로 제공되는 완벽한 실시간 기능도 함께 지원한다. 특히 이는 매우 짧은 대기 시간과 주파수/클록의 엄격한 동기화를 요구하는 모든 5G 네트워크 솔루션에 적합하다. 콩가텍은 새로운 COM-HPC 서버 온 모듈 기반 µATX 솔루션 플랫폼을 위해 소형 섀시용 수동 냉각을 포함한 다양한 종합적 냉각 솔루션도 제공한다. 이 서비스 패키지는 conga-HPC/uATX 서버 캐리어 보드 맞춤구성 외에도 고객별 BIOS/UEFI 및 실시간 하이퍼바이저 구현과 디지털화를 위한 추가 IIoT 기능 확장도 포함한다. 웹사이트: https://www.congatec.com/ko
-
한국레노버, AMD 라이젠 스레드리퍼 프로 7000 WX 시리즈 탑재 ‘씽크스테이션 P8’ 출시한국레노버가 AMD와 엔비디아의 혁신적 컴퓨팅 아키텍처에 레노버의 탁월한 신뢰성과 혁신을 더한 ‘씽크스테이션 P8’ 데스크톱 워크스테이션을 출시했다. 씽크스테이션 P8은 5나노(nm) 공정 기반 젠4 아키텍처를 적용한 AMD 라이젠 스레드리퍼 프로 7000 WX 시리즈 프로세서를 탑재했다. 싱글 소켓 중 가장 높은 수인 최대 96코어, 192개 스레드를 지원하는 씽크스테이션 P8은 빌딩 정보 모델링(BIM) 워크플로, 소프트웨어 개발 프로젝트, 제품 생명주기 관리 등 데이터 집약도가 높은 업무뿐만 아니라 복잡한 렌더링 및 VFX 워크로드를 처리할 수 있는 미디어·엔터테인먼트 분야에도 이상적이다. 지난해 출시된 씽크스테이션 제품군과 동일하게 영국 럭셔리 스포츠카 브랜드 ‘애스턴마틴(Aston Martin)’과의 파트너십을 통해 디자인된 섀시를 적용했다. 세련되고 견고한 랙 최적화 섀시는 플래티넘 등급의 파워 옵션을 제공해 더욱 까다로운 확장 기능을 처리할 수 있다. 최대 3개의 엔비디아 RTX 6000 에이다(Ada) 제너레이션 및 AMD 라데온 프로 GPU를 지원해 대규모 언어 모델(LLM)을 사용하는 데이터 과학 및 생성형 AI, AI를 활용한 시각화 등 까다로운 AI 워크로드에 필요한 성능을 제공한다. 실시간 광선 추적, 동영상 렌더링, 시뮬레이션, 컴퓨터 지원 설계(CAD) 같은 그래픽 집약적 애플리케이션의 작업 시간 또한 줄일 수 있다. 탁월한 유연성과 확장성도 씽크스테이션 P8의 특장점이다. 연결 속도와 확장성을 높여주는 6개 PCI 5세대 슬롯을 포함, 총 7개 PCIe 슬롯을 제공한다. RAID 지원 M.2 PCIe 4세대 SSD는 최대 7개, 대용량 스토리지를 위한 HDD는 최대 3개, 옥타 채널을 지원하는 DDR5 메모리는 최대 1TB까지 장착 가능하다. 10기가바이트 이더넷을 내장해 네트워크 병목 현상을 해소했다. 사용자가 세부 사양을 최적의 구성요소로 직접 설정하고, 별도의 툴 없이도 구성품을 쉽게 교체 가능하다. 씽크스테이션 P8은 씽크스테이션 진단 소프트웨어를 통해 빌트인 하드웨어를 모니터링할 수 있다. 레노버 퍼포먼스 튜너는 ISV(독립 소프트웨어 공급업체) 애플리케이션의 최적화를 지원한다. 바이오스부터 클라우드에 이르는 종합적 보안을 제공하는 레노버 씽크쉴드(ThinkShield) 보안 서비스로 안전성을 높였다. 신규식 한국레노버 대표는 “워크플로가 복잡해지고 데이터 집약적인 작업이 늘면서 건축가, 엔지니어, 비주얼 아티스트, AI 모델 개발자 등의 전문가들은 강력하고 신뢰성 높은 워크스테이션을 찾고 있다”며 “강력한 성능, 탁월한 확장성을 제공하도록 설계된 씽크스테이션 P8은 가상현실(AR) 및 증강현실(VR) 콘텐츠 생성, 고급 AI 모델 개발 같은 전문 작업에 새로운 가능성을 열고 생성형 AI가 가져올 변화를 가속화할 것”이라고 전했다. 이어 “업계에서 가장 폭넓은 AMD 워크스테이션 포트폴리오로 엔트리 레벨부터 하이엔드급 성능이 필요한 고객까지 전방위에 걸쳐 지원할 것으로 기대된다”고 덧붙였다. 웹사이트: http://www.lenovo.com/kr/ko
-
Quantexa, 의사결정 인텔리전스 플랫폼 로드맵 새로 공개인텔리전스 솔루션을 공급하는 Quantexa가 해마다 개최되는 고객 및 파트너 콘퍼런스 QuanCon24를 통해 의사결정 인텔리전스 플랫폼의 로드맵을 소개하고, 생성형 인공지능(AI) 어시스턴트로 지난해 7월 미리 공개된 ‘Q Assist™’의 업데이트 버전을 선보였다. Microsoft Azure Marketplace에서 Quantexa의 의사결정 인텔리전스 플랫폼을 즉시 사용할 수 있으며, 미국 중소 규모 은행들도 새로운 클라우드 네이티브 AI 솔루션을 접할 수 있을 전망이다Quantexa는 또한 Microsoft와의 파트너십을 발표했다. Quantexa의 최고제품책임자 Dan Higgins는 Microsoft 전략 파트너십 사업부의 글로벌 테크놀로지 디렉터 Kate Rosenshine과 함께 향후 Microsoft Azure Marketplace에서 Quantexa의 의사결정 인텔리전스 플랫폼을 즉시 사용할 수 있으며, 미국 중소 규모 은행들에 새로운 클라우드 네이티브 AI 솔루션을 제공할 계획이라고 발표했다. Quantexa의 최고제품책임자(CPO) Dan Higgins는 “Quantexa의 기술 로드맵은 고객의 요구와 의사결정 인텔리전스 분야를 이끌고자 하는 야심을 기준으로 삼는다. 이를 위해 우리는 고객이 조직의 사일로를 해체해 신뢰할 수 있는 데이터 기반을 구축하고, 의사결정을 자동화하고 강화하며, 의사결정 과정 전반을 지속적으로 평가하고 향상할 수 있도록 돕는다. 아울러 우리는 새로운 기능과 솔루션을 도입해 조직을 보호하고, 최적화하고, 성장시키는 획기적인 혁신을 구현하고자 꾸준히 주력하고 있다”고 말했다. 다양한 애플리케이션에서 비즈니스 의사결정 로직을 자동화하고자 다수의 데이터 소스와 AI를 활용할 수 있는 솔루션과 도구를 개발하며 업계를 선도하고 있다. Quantexa는 새로운 맞춤형 평가, 경고, 의사결정 모델 등 한층 향상된 워크 플로 기능들로 플랫폼을 업데이트하고 있다. Quantexa는 금융 범죄, 사기 및 리스크를 해결하고 고객 인텔리전스로 새로운 수익 기회를 파악하기 위한 파일럿 프로그램을 통해 새로운 사례 관리 기능과 더불어 은행, 통신, 정부 기관 분야의 고객들이 배포 중인 Q Assist에 대한 조기 도입 업데이트를 선보였다. Quantexa는 수요 증가와 업계의 고유한 복잡성에 대응하고자 데이터 관리, 콘텍스트 애널리틱스, AI 기능의 발전 사항을 선보였다. 또한 뉴스 인텔리전스에 그치지 않고 엔티티 해상도를 통해 비정형 데이터 소스 데이터의 수집 및 분석을 지원하고 대규모 언어 모델(LLMs)과 정보 그래프를 결합해 대규모의 그래프 분석 및 그래프 머신러닝을 구현하는 기능을 고객에게 제공할 수 있게 됐다고 소개했다. Dan Higgins 최고책임자는 “지난 12개월 간에 걸쳐 의사 결정 인텔리전스는 급성장세를 보인 하나의 트렌드가 됐고, 이는 여러 업계 분석가들도 주목한 바 있다. 하지만 의사 결정 인텔리전스 부문은 창립 초기부터 우리 회사의 핵심 사업이었다. Quantexa는 정부 기관과 기업들이 콘텍스트 분석과 AI를 활용해 의사 결정의 개선을 이뤄낼 수 있도록 기술 제품의 혁신과 발전에 힘쓰고 있으며, 최신 기술 로드맵을 통해 이를 실현하게 돼 매우 고무적이다. Microsoft와 맺게 된 새로운 파트너십은 고객들을 대상으로 접근이 용이한 솔루션 제공에 주력한다는 우리의 약속을 방증하는 것이며, 향후 고객들이 필요로 하는 지점에서 우리가 도움이 될 수 있도록 지속적인 노력을 기울여 나갈 것이다”고 말했다. Microsoft의 금융서비스 전략담당 이사 Tyler Pichach는 “금융 서비스 기업기관들은 변화하는 시장 역학 관계에 맞춰 성공적으로 대응하기 위해 더욱 효율적이고 스마트한 방식으로 변모하고 있다. 그 결과, 데이터 관리나 금융 범죄 대응, 새로운 수익 기회 발굴 등 매일 이뤄지는 수천 가지의 운영 결정을 보강하고 자동화하기 위해 믿을 수 있는 데이터와 AI를 활용하는 방안의 필요성도 증대되고 있다. Quantexa와 같은 파트너와 협력해 의사결정 인텔리전스 플랫폼을 우리 회사의 Microsoft Azure Marketplace에서도 사용할 수 있도록 하고, 새로운 클라우드 네이티브 솔루션이 확장된 시장 부문에서 이용 가능해져 양사가 공동의 혁신을 견인함으로써 여러 산업 분야에 걸친 고객들이 직면한 최대 난제 일부를 해결하는 데 도움을 줄 수 있도록 최선을 다하고 있다”고 말했다. 웹사이트: https://www.quantexa.com
-
IAR, 임베디드 시스템 기능안전 인증 지원 및 제품 개발 역량 향상을 위한 FSG 컨소시엄 출범IAR은 임베디드 소프트웨어 솔루션 개발기업, 반도체 전문기업, 테스트 솔루션 기업, 인증 및 컨설팅 솔루션 기업 등과 함께 기능 안전 강화를 위한 컨소시엄 FSG (Functional Safety Group)를 구성하고 여의도 전경련회관 컨퍼런스 회의실에서 출범식을 진행했다고 밝혔다. FSG는 임베디드 시스템 개발자들의 기능 안전 인증을 지원하고 제품 개발 역량 향상에 기여하고자 하는 다양한 기업들로 구성된 민간 협의체이다. 이번 FSG 컨소시엄에는 IAR을 비롯하여 RTOS 미들웨어 솔루션 개발기업인 디오이즈, 반도체 및 소프트웨어 솔루션 전문 기업인 ST마이크로일렉트로닉스, 요구사항 관리 및 테스팅 솔루션 기업인 슈어소프트테크, 그리고 인증 및 컨설팅 솔루션 기업인 TUV SUD코리아가 참여하고 있다. IAR의 아태지역 비즈니스를 총괄하는 키요후미 우에무라(Kiyofumi Uemura) 부사장은 “기능 안전에 대한 요구가 점점 더 강화됨에 따라 기능 안전 인증이 필요한 기업은 해마다 늘고 있다. 하지만, 많은 기업들이 인증을 위한 솔루션을 쉽게 찾지 못해 제품 출시가 늦어져 경쟁력을 잃을 수 있다. FSG는 이러한 문제를 빠르게 해결하고 산업 발전에 큰 도움을 줄 것으로 기대한다”고 말했다. 성원호 디오이즈 대표이사는 “기능 안전 요구 사항을 처음 접하는 기업이 관련 솔루션을 조사하고 습득하는 데에는 많은 시간과 노력이 필요하다”며 “FSG의 주요 목적은 기업들이 기능 안전 요구 사항을 만족하는 제품의 개발 및 인증을 신속하고 효율적으로 완료하여 시장에 성공적으로 진입할 수 있도록 돕고, 궁극적으로는 기능 안전 관련 산업계 발전에 기여하는 것”이라고 밝혔다. 파올로 오테리(Paolo Oteri) ST마이크로일렉트로닉스 한국 및 일본 MDG 총괄은 “FSG의 일원으로서 FSG의 주요 구성원들과 함께 기능 안전 인증을 위한 솔루션을 제공하는데 기여할 수 있어서 기쁘다. ST는 전 세계에서 가장 큰 반도체 회사 중 하나이며, STM32는 업계에서 가장 널리 쓰이는 마이크로컨트롤러로서, FSG 활동을 통해서도 기능 안전 솔루션이 필요한 많은 고객들에게 더욱 다양한 형태로 기여할 수 있을 것으로 기대한다”고 말했다. 배현섭 슈어소프트테크 대표이사는 “FSG는 기능 안전 시장의 급속한 성장에 대응해 이 분야 국내외 전문기업들의 협력을 통해 설립됐다. 기업들은 FSG를 통해 산업별 안전 요구 사항에 최적화된 인증 솔루션을 제공받고, 제품 안전성을 보다 쉽고 빠르게 검증해 글로벌 기능 안전 요건에 대응할 수 있을 것”이라고 밝혔다. 서정욱 TÜV SÜD 코리아 대표이사는 “이번 FSG 출범은 각 기업의 전문성과 경험을 바탕으로 기능 안전 분야에서의 협력을 강화하고, 관련 산업의 발전을 촉진시키는 데 중요한 역할을 할 것”이라며 “TÜV SÜD 코리아는 기능 안전 표준의 이해와 적용을 개선하고, 고객의 제품 및 서비스의 안전성과 신뢰성을 높이는 데 기여할 수 있도록 최선을 다할 것”이라고 말했다. 웹사이트: https://www.iar.com
-
파수, 내달 3일 ‘FDI 2024’ 콘퍼런스 통해 AI 활용 청사진 제시파수가 내달 3일에 고객행사인 ‘파수 디지털 인텔리전스 2024(Fasoo Digital Intelligence 2024, 이하 FDI 2024)’를 개최한다. 파수는 이번 행사에서 ‘고객의 AI 활용을 돕는 기업’으로서 파수의 AI 전략을 소개하고 AI 활용 청사진을 제시한다. FDI는 기업 및 기관의 CIO, CISO, 보안 및 IT 담당자 등 파수의 주요 고객과 함께하는 연례 콘퍼런스다. ‘고객의 AI 활용을 돕는 AI·SW 기업’으로 거듭나고 있는 파수는 올해 FDI 주제를 ‘Get AI-Ready: Enterprise LLM, Data and Security(AI 시대를 위한 준비: 엔터프라이즈 LLM, 데이터 그리고 보안)’로 선정했다. 이날 파수는 본격적인 AI 시대를 맞아 조직들이 AI를 도입하기 위해 반드시 준비해야 할 주요 사항들과 방향성을 제시하는 것 외에도, 다양한 세션을 통해 주요 보안 이슈 및 관련 솔루션을 소개한다. 조규곤 대표의 키노트에서는 FDI 2024의 주제에 맞춰, 최근 AI 확산에 따른 기업 및 기관들의 당면 과제를 짚어본다. 이어서 최근 출시한 기업용 sLLM인 ‘파수 ELLM(파수 엔터프라이즈 LLM)’에 대한 자세한 내용을 공개하고, 성공적인 생성형 AI 활용에 있어 가장 중요한 요소 중 하나인 학습용 내부 데이터 관리 방안도 소개한다. 올해는 특히 글로벌 기업들의 IT 임원이 패널로 나서는 특별 토론 세션도 마련했다. 해당 세션에서는 글로벌 기업과 국내 기업 및 기관이 데이터 보안 전략 및 실제 사례를 소개하고, 토론을 통해 특별한 인사이트를 나눌 예정이다. 이 외에도 최근 중요 보안 이슈로 떠오르고 있는 데이터 보안과 공급망 보안도 각각의 세션으로 다뤄진다. FDI 2024는 4월 3일 오후 2시부터 여의도 페어몬트 앰배서더 서울에서 개최된다. FDI 홈페이지에서 사전 등록과 참석 승인 과정을 거쳐 현장 참석이 가능하며, 선착순 조기 마감될 수 있다. 조규곤 파수 대표는 “AI 및 소프트웨어 기업으로서의 정체성이 명확하게 드러날 이번 FDI를 통해 파수는 기업 및 기관들은 AI 도입을 위해 무엇을 준비하고 점검해봐야 하는지 의미있는 인사이트를 제공해 줄 수 있을 것”이라며 “파수는 고객의 AI 활용을 돕기 위한 실용적이고 필수적인 솔루션과 서비스를 지속적으로 선 뵐 예정”이라고 말했다. 웹사이트: http://www.fasoo.com
-
스노우플레이크, Mistral AI,스노우플레이크 코텍스 5개 국어 LLM 모델 지원스노우플레이크(Snowflake)가 프랑스의 AI 솔루션 제공업체 Mistral AI와 파트너십을 체결했다고 발표했다. 이번 파트너십은 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스(Snowflake Ventures)의 Mistral AI로의 시리즈 A 투자를 포함한다. 양사의 협력으로 스노우플레이크 고객은 Mistral AI가 가장 최근에 선보인 플래그십 대규모 언어 모델(Large Language Model, LLM)인 ‘미스트랄 라지(Mistral Large)’를 스노우플레이크 데이터 클라우드 플랫폼에서 적용할 수 있다. 또한 Mistral AI의 최초 기본 모델인 ‘미스트랄 7B’와 오픈 소스 모델 ‘믹스트랄(Mixtral) 8x7B’에도 액세스할 수 있다. ‘미스트랄 라지’는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고, 한 번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있으며, △프랑스어 △영어 △독일어 △스페인어 △이탈리아어 5개 언어 처리가 가능하다. 기존 생성형 AI 모델과 ‘대규모 다중 작업 언어 이해 측정(Measuring massive multitask language understanding, MMLU)’을 비교함에 있어서는 뛰어난 성능을 입증하면서 챗GPT-4에 이어 API를 통해 사용 가능한 모델 중 2위를 차지하기도 했다. ‘미스트랄 7B’는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이다. ‘믹스트랄 8x7B’는 대부분의 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다.Mistral AI의 모델들은 ‘스노우플레이크 코텍스(Snowflake Cortex)’에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안과 개인정 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다. 스노우플레이크 슈리다 라마스워미(Sridhar Ramaswamy) 신임 CEO는 “스노우플레이크는 Mistral AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 됐다”며 “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인정보보호는 강화하고, 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 말했다. Mistral AI의 공동 창립자 겸 CEO 아르튀르 멘슈(Arthur Mensch)는 “스노우플레이크의 보안, 개인정보보호 및 거버넌스에 대한 원칙은 누구나 어디에서든 혁신적인 AI를 활용할 수 있도록 하겠다는 Mistral AI의 포부와 맞아떨어진다. Mistral AI는 전 세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능·고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”며 “스노우플레이크 데이터 클라우드에서 Mistral AI의 모델을 활용함으로써 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 말했다. 스노우플레이크 지난해 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한 메타(Meta)의 ‘라마2(Llama 2)’ 모델을 시작으로 검색증강생성(Retrieval-Augmented Generation, RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 Mistral AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면의 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다.복잡한 GPU 관리 대신 사용자의 AI 활용도를 넓히기 위해 엔비디아(NVIDIA)와도 적극적으로 협력하고 있다. 스노우플레이크 코텍스는 엔비디아 트라이튼 추론 서버(Triton Inference Server)를 활용해 풀스택 가속 컴퓨팅 플랫폼을 제공하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되며 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 Mistral AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿(Streamlit)의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 스노우플레이크는 고객, 데이터 클라우드 생태계는 물론, 기술 커뮤니티 전체에 대한 AI 혁신을 위해 노력하고 있다. 이에 스노우플레이크는 최근 개발자, 연구원 및 조직이 개방적이고 안전하며 책임감 있는 AI를 개발하기 위한 국제 커뮤니티인 ‘AI 얼라이언스(AI Alliance)’에 가입했다. AI 얼라이언스를 통해 스노우플레이크는 생성형 AI가 가져올 도전과제와 기회에 대해 전방위적이고 개방적으로 대응하며 누구나 AI 기술을 활용하고 혜택을 얻을 수 있도록 지속적으로 노력할 계획이다. 웹사이트: https://www.snowflake.com/?lang=ko
-
아하랩스 ‘인터배터리 2024’서 빅데이터·AI 품질 관리 솔루션 공개아하랩스가 오는 3월 6일부터 8일까지 서울 코엑스에서 열리는 국내 최대 규모의 이차전지산업 전문 전시회 ‘인터배터리 2024(InterBattery 2024)’에 참가한다. 팬데믹을 거치며 디지털 전환의 속도가 빨라지고 소비자 취향이 더욱 세분화되는 가운데, 이제는 제조 현장도 반드시 변화에 민첩하게 대응하는 능력을 갖춰야 한다. 아하랩스는 글로벌 배터리 제조기업들과 긴밀하게 협업하면서 쌓은 도메인 지식과 솔루션 운영 노하우를 바탕으로 제조 현장의 디지털 전환을 실현할 종합 솔루션을 제공한다. 이번 전시회에서는 스마트팩토리 전주기 데이터 통합 관리 솔루션 ‘데이터 캠프(Data CAMP)’, 생산 품질 관리를 위한 AI 모델 개발 운영 플랫폼 ‘리사(LISA, Look'in Smart with AI)’, 그리고 머신비전 하드웨어 솔루션 전문 기업인 비투에스(대표 조민경)와 함께 개발한 제품 표면결함 관리용 스마트 조명 시스템 ‘AI 라이트 팔레트(AI Light Palette)’를 선보인다. 아하랩스의 부스 위치는 1층 B홀 B291호로, 제조 공정 라인을 모사한 컨베이어 벨트를 이용해 제품의 실제 시연 모습을 확인할 수 있다.‘데이터 캠프’는 제조 현장에서 생성되는 영상, 이미지, 진동, 소음 등 다양한 형태의 데이터를 수집 분석 후 전송한다. 이를 통해 사용자는 불필요한 다운타임을 사전에 방지할 수 있다. ‘데이터 캠프’는 제조 현장에서 쓰이는 통신 프로토콜 대부분을 제공하기 때문에 다양한 형식의 데이터를 일괄 수집할 수 있다는 것이 장점이다. 또, 사용자 친화적인 UI를 이용해 복잡한 코딩 없이도 데이터의 형식을 통일된 형태로 자동 변환할 수 있다. 통합된 데이터는 실시간으로 분석해 전송하며, 생산 설비와 공정 수율상의 이상 발생을 감지하고 미리 대비할 수 있도록 알람 등의 형식으로 지원한다. ‘리사’는 제조 현장에서 수집된 다양한 데이터를 기반으로 한 AI 품질 관리 솔루션이다. 정상 데이터만을 학습한 AI 모델로 설비 이상과 제품 결함을 실시간으로 탐지할 수 있다. 이를 통해 비정상 데이터 확보 및 전처리에 드는 시간과 비용을 줄여 제품 생산 초기 시점부터 딥러닝을 적용할 수 있다. 또한 AI 모델 개발에 익숙하지 않은 공정 전문가도 데이터 레이블링부터 모델 파라미터 설정, 데이터 학습, 평가 및 실제 적용까지 모든 과정을 손쉽게 수행하고 관리할 수 있다. 아하랩스는 전시회 기간 동안 다양한 부대행사에 참석한다. 네트워킹나잇과 인터배터리 2024 연계 이차전지 수출상담회를 통해 더 많은 기업고객을 도울 방안을 모색한다. 코엑스 3층 컨퍼런스룸 307호에서 잡페어 멘토링도 진행한다. 온라인 사전 예약자를 대상으로 아하랩스 현직 개발자가 1:1 직무 컨설팅을 진행하며, 행사 당일 현장에서도 예약으로 신청이 가능하다. 한편 아하랩스는 최근 미국 산호세에 현지법인(AHHA LABS USA Inc. 대표 정경순)을 설립했다. 이에 따라 미국 오하이오주 지역경제개발청(JobsOhio) 등 미국 내 각 지역 투자자들과 만나 협업 방안을 논의한다. 함상화 아하랩스 대표는 “아하랩스는 앞으로 어떤 산업 분야의 고객이든 수집되고 있는 데이터로부터 귀중한 인사이트를 발굴하고 확실한 의사결정을 내릴 수 있도록 적극 지원할 예정”이라며 “인터배터리 2024 전시회를 통해 신뢰할 수 있는 빅데이터 통합 관리 및 AI 기술 파트너가 되기를 기대한다”고 밝혔다. 웹사이트: http://ahha.ai
-
스노우플레이크, 데이터 포 브렉퍼스트 개최클라우드 기업 스노우플레이크(Snowflake)가 국내 기업의 데이터 기반 성장을 지원하기 위한 연례 콘퍼런스 ‘데이터 포 브렉퍼스트(Data for Breakfast)’를 3월 14일(목) 오전 10시 소피텔 앰배서더 서울 그랜드볼룸 방돔에서 개최한다. ‘데이터 포 브렉퍼스트’는 서울을 포함한 전 세계 주요 도시 100여곳에서 열리는 연례행사로, 한국에서는 올해 3회 차를 맞는다. 이번 행사에는 마이크 스카펠리(Mike Scarpelli) 스노우플레이크 최고 재무 책임자(CFO), 크리스 차일드(Chris Child) 스노우플레이크 제품 부문 시니어 디렉터 등 본사 임원진과 최기영 스노우플레이크 코리아 지사장이 기조연설자로 나선다. 이번 행사는 스노우플레이크 도입을 고려하는 잠재 고객과 아직 데이터 클라우드 경험이 많지 않은 고객 및 파트너사를 대상으로 조직의 데이터 전략에 대한 인사이트를 공유한다. 기조연설과 함께 스노우플레이크의 고객사인 BC카드는 데이터 거래 플랫폼인 ‘마켓플레이스’를 통해 단순 데이터 제공 기업을 넘어 데이터 기반 솔루션 제공사로써 비즈니스를 활성화해 나가고 있는 경험을 공유할 예정이다. 이수현 스노우플레이크 에반젤리스트는 데이터 슈퍼히어로 3인 △넥슨코리아 이재면 데이터 엔지니어 △더핑크퐁컴퍼니 한예성 소프트웨어 엔지니어 △메가존클라우드 Cloud SA 데이터팀 최경진 팀장과 함께 AI 시대에 발맞춰 한국 기업들이 갖춰야 할 데이터 전략과 실제로 현업에서 데이터 기반의 비즈니스를 운영하고 있는 경험을 생생하게 공유한다. 파트너사가 운영하는 부스에서는 스노우플레이크 생태계에서 이어온 데이터 기반 협업 솔루션과 활용 사례를 소개한다. 최기영 스노우플레이크 지사장은 “데이터는 혁신적인 기술로 주목받은 생성형 AI, 대규모 언어 모델(LLM)의 시작과 발전을 이끈 핵심 요소”이라며 “스노우플레이크는 유연하고 혁신적인 데이터 플랫폼으로써 고객의 데이터 전략을 강화하고 모든 데이터 워크로드를 지원해 가파르게 성장하는 생성형 AI 시대에 빠르고 효율적으로 대비할 수 있도록 도울 것”이라고 말했다. 스노우플레이크는 데이터와 AI 역량을 갖춘 전략적 파트너로서 기업의 리더가 데이터 기반 의사결정을 강화할 수 있도록 강력한 데이터 파운데이션을 구축하고, 체계적이면서 안전하게 데이터를 관리한다. 기업은 조직 전반에 걸쳐 사일로를 제거한 데이터를 쉽게 다룸으로써 데이터를 통한 가치를 최대화할 수 있다. 웹사이트: https://www.snowflake.com/?lang=ko
-
한화시스템,아웃시스템즈, LCAP 사업 추진 위한 MOU 체결한화시스템 ICT 부문이 시스템 개발 과정에 새로운 ‘로우코드(Low-code)’ 기술 플랫폼을 도입하고 관련 시장에 본격 진출한다. 한화시스템은 서울 중구에 위치한 한화시스템 ICT 본사에서 글로벌 ‘LCAP(Low-code Application Platform·로우코드 애플리케이션 플랫폼)’ 선두 업체 아웃시스템즈(Outsystems)와 사업 협력을 위한 양해각서(MOU)를 체결했다고 29일 밝혔다.28일 열린 체결식에는 김윤수 한화시스템 밸류크리에이션 사업부 기술 담당 상무와 마크 위저(Mark Weaser) 아웃시스템즈 아태지역 총괄대표 등 양사 임직원들이 참석했다. LCAP은 복잡한 코딩 과정을 최소화해 애플리케이션·시스템을 신속하고 효율적으로 개발하는 기술인 ‘로우코드(Low-code)’ 기반 플랫폼이다. △실시간 로우코드 개발 현황을 직관적으로 확인 가능한 유저 인터페이스(UI) △기업 내 개발 역량 확보 및 개발자 업무 효율화 △생성 AI 및 빅데이터 기술과 융합발전이 용이한 확장성 등 다양한 장점을 가진다. 무엇보다 LCAP은 기존 코딩의 단계인 설계-개발-테스트-배포-운영 등을 하나의 플랫폼을 통해 가능하게 해 시스템 개발 시간과 비용 효율을 극대화할 수 있다. 또한 사전에 개발된 컴포넌트를 재사용할 수 있어 오류 발생 가능성을 낮추고, 시스템 개발·운영 생산성을 기존 대비 약 30% 향상시킬 것으로 한화시스템은 추산했다. 아웃시스템즈는 2001년 포르투갈에 설립돼 미국 보스턴에 본사를 두고 있는 LCAP 전문기업으로, 미군을 비롯해 독일 메르세데스-벤츠 및 프랑스 슈나이더 일렉트릭 등 전 세계에 2000여개 이상의 고객사를 보유하고 있다.한화시스템은 이번 협력을 통해 아웃시스템즈와 LCAP 관련 기술을 활용한 사업 모델을 공동 발굴하기로 했다. 스마트 공장 및 스마트 물류 등의 제조업을 필두로, 방산·금융·서비스 등 다양한 산업군의 시스템 개발 과정에 LCAP을 적용할 예정이다. 이를 통해 인건비 절감, 수율 개선 등의 이점이 있는 제조업의 디지털 전환 가속화에 일조하겠다는 것이 한화시스템 측의 설명이다. 또한 한화시스템은 제조업 외에도 디지털 기술을 도입하고자 하는 다양한 산업 분야의 고객을 대상으로 LCAP 개발 사업에도 직접 나설 계획이다. 글로벌 시장조사업체 가트너(Gartner)에 따르면 2021년 63억달러 수준이었던 LCAP 시장은 올해 124억달러(한화 약 16조5000억원) 규모로 급성장할 것으로 전망된다. 김윤수 한화시스템 밸류크리에이션 사업부 기술 담당 상무는“LCAP 시장의 성장은 최근 산업계에서 벌어지고 있는 IT 개발자 수급 난항 현상을 완화할 수 있을 것으로 기대한다”며 “앞으로도 아웃시스템즈와의 협업을 통해 국내 제조업의 스마트화 외에도 산업 전반의 체질 개선을 지속 추진해 나가겠다”고 말했다. 웹사이트:https://www.hanwhasystems.com/kr/index.do