검색결과
-
대한전선, 탄소중립 선언… 로드맵 수립해 글로벌 탄소장벽 대응 강화대한전선은 2050년 넷제로(Net Zero) 달성을 위한 탄소중립 로드맵을 수립했다고 11일 밝혔다. 유럽, 미국 등 선진국을 중심으로 탄소중립 관련 정책 및 규제를 수립하며 탄소중립 무역장벽을 공고히 함에 따라, 시장에서의 경쟁력을 높이기 위해 선제적인 조치를 취한 것이다. 유럽은 지난해 10월부터 탄소 배출량에 따라 관세를 부과하는 CBAM(탄소국경조정제도)을 시범 시행하고 있으며, 미국도 이와 유사한 CCA(청정경쟁법)의 법안 통과를 빠르게 추진 중이다. 실제로, 각국의 전력청 등 주요 고객사들은 공급사를 대상으로 밸류체인 전반에 대한 온실가스 감축을 요구하고 있으며, 신재생에너지 발전 프로젝트에 쓰이는 케이블에 대해서는 ‘RE100(재생에너지 100% 사용)’의 이행을 촉구하고 있다. 이에 대한전선은 중장기 로드맵을 수립, 시장의 요구에 빠르게 대응한다는 방침이다. 온실가스 감축 목표는 SBTi(Science Based Targets initiative) 기준에 따라 수립했다. SBTi는 과학적 근거에 기반해 기업들의 탄소 배출 감축 목표를 검증하는 글로벌 이니셔티브로, 현재 미국, 유럽 지역의 에너지 기업 등을 포함해 전 세계의 약 7000여 개 기업들이 참여하고 있다. 대한전선은 올해 상반기 내 감축 목표 및 이행 계획을 제출해 국내 케이블 업계 최초로 SBTi의 승인을 획득할 계획이다. 대한전선은 로드맵에 따라 2031년까지 국내외 전 사업장에서 직·간접으로 배출하는 탄소 총량을 46% 감축할 계획이다. 이에 더해 해외법인, 협력사 및 운송 등 밸류체인 전 과정에서 배출되는 탄소량도 2031년까지 30% 이상 줄여, 2050년에는 제품 생산 및 영업활동에서 발행하는 모든 탄소 배출량이 0인 넷제로를 달성할 방침이다. 특히 2025년 완공되는 해저케이블 1공장의 경우에는 재생에너지만으로 제품을 생산하는 ‘RE100’ 사업장으로 조성해 유럽 시장 공략의 강점으로 활용한다는 계획이다. 웹사이트: http://www.taihan.com
-
스노우플레이크, Mistral AI,스노우플레이크 코텍스 5개 국어 LLM 모델 지원스노우플레이크(Snowflake)가 프랑스의 AI 솔루션 제공업체 Mistral AI와 파트너십을 체결했다고 발표했다. 이번 파트너십은 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스(Snowflake Ventures)의 Mistral AI로의 시리즈 A 투자를 포함한다. 양사의 협력으로 스노우플레이크 고객은 Mistral AI가 가장 최근에 선보인 플래그십 대규모 언어 모델(Large Language Model, LLM)인 ‘미스트랄 라지(Mistral Large)’를 스노우플레이크 데이터 클라우드 플랫폼에서 적용할 수 있다. 또한 Mistral AI의 최초 기본 모델인 ‘미스트랄 7B’와 오픈 소스 모델 ‘믹스트랄(Mixtral) 8x7B’에도 액세스할 수 있다. ‘미스트랄 라지’는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고, 한 번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있으며, △프랑스어 △영어 △독일어 △스페인어 △이탈리아어 5개 언어 처리가 가능하다. 기존 생성형 AI 모델과 ‘대규모 다중 작업 언어 이해 측정(Measuring massive multitask language understanding, MMLU)’을 비교함에 있어서는 뛰어난 성능을 입증하면서 챗GPT-4에 이어 API를 통해 사용 가능한 모델 중 2위를 차지하기도 했다. ‘미스트랄 7B’는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이다. ‘믹스트랄 8x7B’는 대부분의 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다.Mistral AI의 모델들은 ‘스노우플레이크 코텍스(Snowflake Cortex)’에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안과 개인정 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다. 스노우플레이크 슈리다 라마스워미(Sridhar Ramaswamy) 신임 CEO는 “스노우플레이크는 Mistral AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 됐다”며 “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인정보보호는 강화하고, 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 말했다. Mistral AI의 공동 창립자 겸 CEO 아르튀르 멘슈(Arthur Mensch)는 “스노우플레이크의 보안, 개인정보보호 및 거버넌스에 대한 원칙은 누구나 어디에서든 혁신적인 AI를 활용할 수 있도록 하겠다는 Mistral AI의 포부와 맞아떨어진다. Mistral AI는 전 세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능·고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”며 “스노우플레이크 데이터 클라우드에서 Mistral AI의 모델을 활용함으로써 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 말했다. 스노우플레이크 지난해 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한 메타(Meta)의 ‘라마2(Llama 2)’ 모델을 시작으로 검색증강생성(Retrieval-Augmented Generation, RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 Mistral AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면의 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다.복잡한 GPU 관리 대신 사용자의 AI 활용도를 넓히기 위해 엔비디아(NVIDIA)와도 적극적으로 협력하고 있다. 스노우플레이크 코텍스는 엔비디아 트라이튼 추론 서버(Triton Inference Server)를 활용해 풀스택 가속 컴퓨팅 플랫폼을 제공하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되며 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 Mistral AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿(Streamlit)의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 스노우플레이크는 고객, 데이터 클라우드 생태계는 물론, 기술 커뮤니티 전체에 대한 AI 혁신을 위해 노력하고 있다. 이에 스노우플레이크는 최근 개발자, 연구원 및 조직이 개방적이고 안전하며 책임감 있는 AI를 개발하기 위한 국제 커뮤니티인 ‘AI 얼라이언스(AI Alliance)’에 가입했다. AI 얼라이언스를 통해 스노우플레이크는 생성형 AI가 가져올 도전과제와 기회에 대해 전방위적이고 개방적으로 대응하며 누구나 AI 기술을 활용하고 혜택을 얻을 수 있도록 지속적으로 노력할 계획이다. 웹사이트: https://www.snowflake.com/?lang=ko
-
SAP 석세스팩터스, SAP HR 커넥트 2024 행사 개최SAP는 클라우드 HR 솔루션 SAP 석세스팩터스(SAP SuccessFactors)가 3월 26일 ‘SAP HR 커넥트 2024(SAP HR Connect 2024)’를 개최한다고 밝혔다. 이번 행사는 국내 기업의 HR 및 IT 분야 임직원을 대상으로 포시즌스 서울 호텔에서 진행된다. 급변하는 비즈니스 환경에서 HR이 경쟁력을 유지하고 변화에 효과적으로 대응하기 위해서는 민첩성, 운영 효율성, 혁신성을 확보하는 것이 중요한바, 많은 기업들이 이를 위해 클라우드 HR 솔루션을 도입하고 있다. SAP 석세스팩터스는 본 행사에서 ‘온프레미스 HR에서 클라우드로 전환하기’라는 주제로, 최신 HR 디지털 혁신을 소개하고 시대에 뒤떨어진 온프레미스 솔루션을 최신 클라우드 기술로 원활하게 이전하는 방안을 설명한다. 본 행사에서 대니얼 벡(Daniel Beck) SAP 석세스팩터스 사장 겸 글로벌 최고 제품 책임자가 ‘SAP 석세스팩터스를 통한 HR 기술 혁신’을 주제로 기조연설을 진행한다. 이어서 LG CNS, LG이노텍, 한독, 두산디지털이노베이션 등 국내 석세스팩터스 고객사의 HR 현업 및 혁신 담당자가 직접 온프레미스에서 클라우드 HR 솔루션으로 성공적으로 전환 및 운영한 사례를 공유한다. 대니얼 벡SAP 석세스팩터스 사장은 “이미 HR 솔루션의 다양한 영역에서 생성형 AI, 대화형 AI와 딥러닝과 같은 다양한 비즈니스 AI가 적용돼 제공되고 있으며, 2024년은 비즈니스 AI가 적용된 HR 솔루션 대중화의 원년이 될 것”이라며 “이러한 급속한 디지털 혁신에 신속하고 효과적으로 대응하기 위해서는 클라우드 HR 솔루션으로의 전환이 필수적이며, SAP 석세스팩터스는 국내 기업이 HR 디지털 혁신을 통해 운영 효율성과 업무 성과를 극대화하면서 임직원 개개인의 경험을 향상시킬 수 있는 최적의 솔루션”이라고 말했다. SAP 석세스팩터스는 차세대 인사 정보 시스템이자 SAP 클라우드 제품군의 하나로 전 세계 1만개 이상의 고객사에서 2억8000만명의 사용자에게 클라우드 기반의 인사 운영 및 인재 관리, 인사 분석 서비스를 제공하고 있다. 국내에서도 재계 최상위 그룹부터 은행, 제약, IT, 엔터테인먼트에 이르는 다양한 업종과 규모의 기업들이 SAP 석세스팩터스를 사용하고 있다. 웹사이트: http://www.sap.com/korea
-
과기정통부, ‘AI 일상화, SW도 이제 SaaS다!’현장간담회 개최과학기술정보통신부,강도현 2차관은 3월 5일(화), 더존비즈온 을지사옥에서 ‘인공지능(이하 ’AI’) 일상화, 소프트웨어(이하 ‘SW’)도 이제 서비스형SW(Software as a Service, 이하 ‘SaaS’)다!’를 주제로 SW 대표 기업들과 만남으로서 현장간담회의 첫 포문을 열었다. 취임 후 첫 현장간담회로 SW 업계를 선택한 것은 현재 모든 산업 분야에서 SW 중심의 혁신(Software Defined – X)이 이루어지고 있는 만큼 대한민국 디지털 대도약을 위해 SW 경쟁력 강화가 중요하다는 점을 강조한 것으로 풀이된다.특히 AI 일상화 시대 디지털 서비스 이용 환경이 ‘SaaS 활용’ 형태로 진화하는 패러다임 변화에 대응하여 업계와 함께 최근 동향을 살펴보고 우리 SW 산업의 대변혁을 위한 SaaS 생태계 활성화 방안 등을 논의하기 위해 마련되었다. 이번 간담회에는 과기정통부 강도현 2차관을 비롯하여, SW업계를 대표하여 한국소프트웨어산업협회 조준희 회장과 더존비즈온, 메가존클라우드, 센드버드, 포티투마루, 와이즈넛, 비즈니스캔버스, 사이냅소프트, 아콘소프트, 클라썸 등 국내 주요 SW기업 대표 및 임원 등이 참석하였다. 본격적인 토론에 앞서 AI일상화 시대 SaaS 기반 혁신 사례를 공유하고자 더존비즈온에서 ‘AI+SaaS 융합을 통한 기업의 AX(AI Transformation) 활용사례’를 발표하였고, SaaS추진협의회 회장사를 맡고 있는 메가존클라우드에서 ‘최근 SaaS 산업 동향’을, 실리콘밸리 등 해외시장에서 활약하고 있는 센드버드에서 ‘SaaS를 통한 글로벌 진출 사례’를 소개하였다. 이어진 토론에서는 SaaS 전환 가속화를 위한 정책적 지원과 공공분야의 SaaS 이용 활성화를 위한 제도적 개선 방안, 국내 유망SW의 SaaS를 통한 해외진출 촉진방안 등이 다양하게 논의되었다.과기정통부 강도현 차관은 “AI 혁명의 시대, 이제 SW도 SaaS로 전환하지 않고는 생존이 어려울 수 있다.”고 언급하며, “국내 SW기업이 해외시장으로 진출하기 위해서는 SaaS 전환이 필수적이며, 기존 구축형(SI)의 한계를 극복하고 우리 SW기업의 경쟁력을 제고하는 발판이 될 것”이라고 강조하였다. 아울러 “정부도 대한민국 SW산업의 미래가 SaaS에 있다고 생각하고 올해 ‘SaaS 혁신펀드’를 새롭게 조성하는 등 SaaS 육성 및 기존 SW기업의 SaaS 전환을 위한 다양한 지원을 추진중”이라고 밝히고, “SaaS추진협의회가 민간의 구심점으로서 역할을 해주시기를 기대한다.”면서, “산업 현장의 의견을 반영하여 우리 SW산업이 SaaS 중심으로 재편하여 전 세계로 뻗어나갈 수 있도록 적극 지원할 것”을 다짐하였다. 한편 과기정통부는 올해를 SW산업이 SaaS로 새롭게 도약하는 한해로 생각하고 SaaS 등 SW산업 육성을 위해 ’24년 7,308억원 규모의 예산을 투자할 계획이다.올해 신규 추진 예정인 ‘SaaS혁신 펀드(200억원)’ 사업을 포함하여 ’24년 1,219억원 규모를 클라우드 산업 육성에 투자하고, SW고성장 클럽(’24, 180억원), 글로벌 마켓 플레이스 진입 지원(’24, 25억원) 사업 등을 통해 유망 SW기업의 성장과 글로벌 진출도 적극 지원해 나갈 예정이다.
-
아하랩스 ‘인터배터리 2024’서 빅데이터·AI 품질 관리 솔루션 공개아하랩스가 오는 3월 6일부터 8일까지 서울 코엑스에서 열리는 국내 최대 규모의 이차전지산업 전문 전시회 ‘인터배터리 2024(InterBattery 2024)’에 참가한다. 팬데믹을 거치며 디지털 전환의 속도가 빨라지고 소비자 취향이 더욱 세분화되는 가운데, 이제는 제조 현장도 반드시 변화에 민첩하게 대응하는 능력을 갖춰야 한다. 아하랩스는 글로벌 배터리 제조기업들과 긴밀하게 협업하면서 쌓은 도메인 지식과 솔루션 운영 노하우를 바탕으로 제조 현장의 디지털 전환을 실현할 종합 솔루션을 제공한다. 이번 전시회에서는 스마트팩토리 전주기 데이터 통합 관리 솔루션 ‘데이터 캠프(Data CAMP)’, 생산 품질 관리를 위한 AI 모델 개발 운영 플랫폼 ‘리사(LISA, Look'in Smart with AI)’, 그리고 머신비전 하드웨어 솔루션 전문 기업인 비투에스(대표 조민경)와 함께 개발한 제품 표면결함 관리용 스마트 조명 시스템 ‘AI 라이트 팔레트(AI Light Palette)’를 선보인다. 아하랩스의 부스 위치는 1층 B홀 B291호로, 제조 공정 라인을 모사한 컨베이어 벨트를 이용해 제품의 실제 시연 모습을 확인할 수 있다.‘데이터 캠프’는 제조 현장에서 생성되는 영상, 이미지, 진동, 소음 등 다양한 형태의 데이터를 수집 분석 후 전송한다. 이를 통해 사용자는 불필요한 다운타임을 사전에 방지할 수 있다. ‘데이터 캠프’는 제조 현장에서 쓰이는 통신 프로토콜 대부분을 제공하기 때문에 다양한 형식의 데이터를 일괄 수집할 수 있다는 것이 장점이다. 또, 사용자 친화적인 UI를 이용해 복잡한 코딩 없이도 데이터의 형식을 통일된 형태로 자동 변환할 수 있다. 통합된 데이터는 실시간으로 분석해 전송하며, 생산 설비와 공정 수율상의 이상 발생을 감지하고 미리 대비할 수 있도록 알람 등의 형식으로 지원한다. ‘리사’는 제조 현장에서 수집된 다양한 데이터를 기반으로 한 AI 품질 관리 솔루션이다. 정상 데이터만을 학습한 AI 모델로 설비 이상과 제품 결함을 실시간으로 탐지할 수 있다. 이를 통해 비정상 데이터 확보 및 전처리에 드는 시간과 비용을 줄여 제품 생산 초기 시점부터 딥러닝을 적용할 수 있다. 또한 AI 모델 개발에 익숙하지 않은 공정 전문가도 데이터 레이블링부터 모델 파라미터 설정, 데이터 학습, 평가 및 실제 적용까지 모든 과정을 손쉽게 수행하고 관리할 수 있다. 아하랩스는 전시회 기간 동안 다양한 부대행사에 참석한다. 네트워킹나잇과 인터배터리 2024 연계 이차전지 수출상담회를 통해 더 많은 기업고객을 도울 방안을 모색한다. 코엑스 3층 컨퍼런스룸 307호에서 잡페어 멘토링도 진행한다. 온라인 사전 예약자를 대상으로 아하랩스 현직 개발자가 1:1 직무 컨설팅을 진행하며, 행사 당일 현장에서도 예약으로 신청이 가능하다. 한편 아하랩스는 최근 미국 산호세에 현지법인(AHHA LABS USA Inc. 대표 정경순)을 설립했다. 이에 따라 미국 오하이오주 지역경제개발청(JobsOhio) 등 미국 내 각 지역 투자자들과 만나 협업 방안을 논의한다. 함상화 아하랩스 대표는 “아하랩스는 앞으로 어떤 산업 분야의 고객이든 수집되고 있는 데이터로부터 귀중한 인사이트를 발굴하고 확실한 의사결정을 내릴 수 있도록 적극 지원할 예정”이라며 “인터배터리 2024 전시회를 통해 신뢰할 수 있는 빅데이터 통합 관리 및 AI 기술 파트너가 되기를 기대한다”고 밝혔다. 웹사이트: http://ahha.ai
-
스노우플레이크, 데이터 포 브렉퍼스트 개최클라우드 기업 스노우플레이크(Snowflake)가 국내 기업의 데이터 기반 성장을 지원하기 위한 연례 콘퍼런스 ‘데이터 포 브렉퍼스트(Data for Breakfast)’를 3월 14일(목) 오전 10시 소피텔 앰배서더 서울 그랜드볼룸 방돔에서 개최한다. ‘데이터 포 브렉퍼스트’는 서울을 포함한 전 세계 주요 도시 100여곳에서 열리는 연례행사로, 한국에서는 올해 3회 차를 맞는다. 이번 행사에는 마이크 스카펠리(Mike Scarpelli) 스노우플레이크 최고 재무 책임자(CFO), 크리스 차일드(Chris Child) 스노우플레이크 제품 부문 시니어 디렉터 등 본사 임원진과 최기영 스노우플레이크 코리아 지사장이 기조연설자로 나선다. 이번 행사는 스노우플레이크 도입을 고려하는 잠재 고객과 아직 데이터 클라우드 경험이 많지 않은 고객 및 파트너사를 대상으로 조직의 데이터 전략에 대한 인사이트를 공유한다. 기조연설과 함께 스노우플레이크의 고객사인 BC카드는 데이터 거래 플랫폼인 ‘마켓플레이스’를 통해 단순 데이터 제공 기업을 넘어 데이터 기반 솔루션 제공사로써 비즈니스를 활성화해 나가고 있는 경험을 공유할 예정이다. 이수현 스노우플레이크 에반젤리스트는 데이터 슈퍼히어로 3인 △넥슨코리아 이재면 데이터 엔지니어 △더핑크퐁컴퍼니 한예성 소프트웨어 엔지니어 △메가존클라우드 Cloud SA 데이터팀 최경진 팀장과 함께 AI 시대에 발맞춰 한국 기업들이 갖춰야 할 데이터 전략과 실제로 현업에서 데이터 기반의 비즈니스를 운영하고 있는 경험을 생생하게 공유한다. 파트너사가 운영하는 부스에서는 스노우플레이크 생태계에서 이어온 데이터 기반 협업 솔루션과 활용 사례를 소개한다. 최기영 스노우플레이크 지사장은 “데이터는 혁신적인 기술로 주목받은 생성형 AI, 대규모 언어 모델(LLM)의 시작과 발전을 이끈 핵심 요소”이라며 “스노우플레이크는 유연하고 혁신적인 데이터 플랫폼으로써 고객의 데이터 전략을 강화하고 모든 데이터 워크로드를 지원해 가파르게 성장하는 생성형 AI 시대에 빠르고 효율적으로 대비할 수 있도록 도울 것”이라고 말했다. 스노우플레이크는 데이터와 AI 역량을 갖춘 전략적 파트너로서 기업의 리더가 데이터 기반 의사결정을 강화할 수 있도록 강력한 데이터 파운데이션을 구축하고, 체계적이면서 안전하게 데이터를 관리한다. 기업은 조직 전반에 걸쳐 사일로를 제거한 데이터를 쉽게 다룸으로써 데이터를 통한 가치를 최대화할 수 있다. 웹사이트: https://www.snowflake.com/?lang=ko
-
파수 ‘엔터프라이즈 LLM’ 출시파수가 기업용 sLLM(small LLM, 경량 대형언어모델) ‘파수 ELLM(파수 엔터프라이즈 LLM, 이하 ELLM)’을 출시했다. 파수는 기업 문서에 대한 이해도가 높은 ELLM에 파수의 앞선 데이터 관리 역량을 더해, 기업 및 기관이 AI를 구축하고 활용하는 가장 효율적이고 실용적인 방안을 제시한다. 파수의 온프레미스 구축형 ELLM은 조직의 특성에 맞는 생성형 AI를 구축해, 보고서 작성 및 문서 요약, 내부 데이터 분석, 지식창고 운영, 고객 응대 등 다양한 분야의 업무 생산성 및 효율성을 혁신하고자 하는 고객을 위해 출시됐다. ELLM은 글로벌 데이터 보안 및 관리 시장을 이끌어 온 파수의 역량이 더해져 업무 문서에 대한 이해도가 뛰어나며, 고객에 특화된 데이터로 신뢰성이 높은 맞춤형 결과물을 제공하는데 최적화했다. 파수 ELLM은 고객별 도메인 사전 특화 학습(DAPT)과 태스크별 미세조정(파인튜닝) 학습으로 맞춤형 결과물을 제공한다. 멀티홉 추론 방식을 채택해 사용자 요청을 분석, 태스크를 분류하고 각 태스크별 최적의 프롬프트를 적용한다. RAG(검생증강생성, Retrieval-Augmented Generation) 방식으로 필요에 따라 외부 검색 엔진이나 내부 시스템의 검색 기능 등과 연계할 수 있는 확장형 구조로 활용도도 높다. 보안과 속도 면에서 차세대 프로그래밍 언어로 떠오르고 있는 Rust 기반에 IO 멀티플렉싱(처리 다중화) 방식을 도입해 요청 처리 속도 또한 빠르다. 파수는 특히 내부구축형(프라이빗, 온프레미스) AI 도입을 고려하고 있지만 AI 학습에 필요한 내부 데이터를 제대로 관리하지 못하고 있는 대부분의 조직에게 AI 활용을 위한 가장 효율적인 길을 열어준다. 파수는 AI 학습을 위한 내부 데이터 관리의 필수조건인 문서자산화와 버전관리, 권한제어를 모두 해결하는 파수의 문서관리 플랫폼 ‘랩소디(Wrapsody)’ 외에도 개인정보 탐지 및 관리 등 다방면의 데이터 관리 솔루션과 역량을 보유하고 있다. 고객의 환경과 목적에 따라 파수의 ELLM과 관련 역량을 결합해, AI 학습에 필요한 복잡한 과정을 최소화하고 보다 쉽게 AI를 활용할 수 있는 방안을 제공한다. 또한 기존에 사용 중인 보안 솔루션의 세부적인 접근 제어 정책과 메타데이터 정보를 연동할 수 있어 보다 안전하게 생성형 AI를 사용할 수 있다. 윤경구 파수 전무는 “글로벌 데이터 관리와 보안 시장에서 쌓아온 노하우와 이번에 출시된 ELLM으로 파수는 내부 데이터 수집부터 관리, 보안, AI 활용에 이르는 과정을 통합지원해 고객의 성공적인 AI 활용을 현실화한다”며 “문서에 대한 높은 이해도를 갖춘 ELLM의 출시를 시작으로 ‘고객들의 AI 활용을 돕는 AI 기업’으로서 고객이 가장 필요한 솔루션과 서비스를 지속적으로 선 뵐 예정”이라고 말했다. 웹사이트: http://www.fasoo.com
-
에이수스, 새로운 슬림 앤 라이트 게이밍 노트북 ‘ROG 제피러스 G16 및 G14’ 출시에이수스(ASUS)가 전작 대비 새로워진 디자인과 함께 성능을 강화한 ROG 제피러스 G16 및 ROG 제피러스 G14를 출시했다. ROG 제피러스 G 시리즈는 우수한 성능에 휴대성을 겸비한 것이 특징인 게이밍 노트북으로, 2024년형 ROG 제피러스 G16 및 G14은 새로운 디자인과 최신 프로세서를 탑재해 성능 측면에서 한층 더 업그레이드됐다. ROG 제피러스 G16 및 G14는 각각 16인치, 14인치의 ROG 네뷸라 디스플레이를 장착해 100% DCI-P3의 넓은 색 영역과 팬톤 인증의 색 정확도를 갖췄으며, 돌비 비전 및 베사(VESA) 디스플레이 HDR 500 트루 블랙 인증을 받아 섬세한 명암 표현력을 제공한다. 일부 모델은 ROG 노트북 라인업 최초로 OLED 디스플레이를 탑재해 더 생생하고 선명한 비주얼을 구현한다. 500니트의 밝기, 최대 0.2㎳의 빠른 응답속도와 함께 각각 120㎐ 및 240㎐의 주사율을 지원하며, 지연 현상을 최소화하는 엔비디아 지싱크(G-SYNC) 기능으로 더 부드러운 화면 재생이 가능하다. 이에 더해 최신 사양의 고성능 프로세서를 탑재해 게이밍뿐만 아니라 크리에이티브, 라이프스타일 등 다양해진 활용도와 더 강력해진 성능을 자랑한다. ROG 제피러스 G16은 신경망 처리 장치(NPU)가 내장된 인텔 코어 울트라 9 프로세서를 지원해 전력 대비 효율적인 AI 성능을 발휘하며, 최대 지포스 RTX 4090 GPU를 탑재해 압도적인 퍼포먼스를 발휘한다. ROG 제피러스 G14는 AI에 특화한 AMD 라이젠 9 8945HS 또는 7 8845HS 프로세서와 최대 지포스 RTX 4070 GPU를 장착, 고사양의 최신 게임과 무거운 창작용 소프트웨어도 빠르고 쾌적하게 실행한다. 두 제품 모두 특화된 AI 텐서 코어를 갖춘 지포스 RTX 40 시리즈 GPU를 지원해 게이밍 시 몰입감 넘치는 그래픽을 제공하며 영상 편집, 화상 회의 등의 작업 수행 시에도 AI 기능을 통해 향상된 사용자 경험을 선사한다. 디자인적 요소로는 노트북 상판에 시그니처 슬래시 LED 조명이 탑재돼 모던한 느낌을 더했으며, 알루미늄으로 제작된 본체는 △플래티넘 화이트 △이클립스 그레이 두 가지의 세련된 색상 중 선택할 수 있다. ROG 제피러스 G16은 최대 1.95㎏ 및 1.7㎝, ROG 제피러스 G14는 약 1.5㎏ 및 1.59㎝로, 슬림한 보디와 가벼운 무게로 높은 휴대성을 갖췄다. 여기에 30분 만에 50%까지 고속 충전되는 배터리와 와이파이 6E의 초고속 연결성으로 이동성을 극대화했다. 돌비 애트모스로 구동되는 6개의 스피커는 실감 나는 사운드를 제공하며, AI 노이즈 캔슬링 기능 등의 편의 기능도 지원한다. 기본 1년의 보증 기간 내 1회에 한해 소비자 과실에 따른 파손 수리비 전액을 지원하는 ‘에이수스 퍼펙트 워런티 서비스’를 지원하며, 제품은 ASUS 공식 스토어, 쿠팡, 11번가, G마켓의 온라인 판매처와 더불어 하이마트 월드타워점 및 잠실점, 일렉트로마트 영등포 타임스퀘어점 및 고양점에서 직접 체험해보고 구매할 수 있다. 웹사이트: https://asus.com
-
비투엔 ‘인공지능 학습용 데이터 구축사업’ 성공적 마무리비투엔이 과학기술정보통신부가 주관하고 한국지능정보사회진흥원(NIA)이 추진하는 ‘2023년 인공지능(AI) 학습용 데이터 구축 사업’을 성공적으로 끝마쳤다. ‘인공지능(AI) 학습용 데이터 구축 사업’은 ChatGPT로 대표되는 초거대 AI의 등장에 따라 국가적 차원에서 대규모 고품질 데이터 구축을 지원하는 정부 주도 사업이다.비투엔은 이번 사업에서 △음성인식에 의한 영상 요약 데이터 △만화 웹툰 데이터 △건물 균열 탐지 이미지(고도화) 등 3개 컨소시엄의 인공지능(AI) 학습용 데이터 품질관리 전담기업 및 품질관리 용역기업으로 참여하였다. 더 나아가 솔트룩스, 피씨엔, 팀벨 등 다양한 인공지능(AI) 관련 전문 기업들과 긴밀하게 협업해 체계적인 품질관리체계를 구축했다. 비투엔이 2023년 인공지능(AI) 학습용 데이터 구축사업에서 품질 점검한 인공지능(AI) 학습용 데이터는 총 4종, 66만건이다. 세부 수량은 이미지 63만 건, 서브 라벨링(초거대AI 말뭉치, 이미지 캡션) 3만 건과 음성 3,000시간이다. 인공지능(AI) 학습용 데이터 품질관리 기술의 정확성과 안정성을 바탕으로 한국어, 재난안전환경, 문화관광 등 여러 분야의 품질 관리를 성공적으로 수행했다. 특히 이번 사업에서 인공지능(AI) 최신기술인 초거대AI 지원을 위한 언어모델로 활용 가능한 고품질의 말뭉치 데이터에 대한 품질 검증도 함께 진행했으며, 구축 완료된 말뭉치 데이터 총 186만 문장, 1744만 토큰(어절 단위)에 대한 품질 검사도 완전하게 수행했다.또한 프로젝트 목표와 요구사항을 바탕으로 데이터의 품질을 관리하기 위한 계획 수립 및 실행, 단계별 품질관리 활동 점검, 한국정보통신기술협회(TTA) 품질 검증 전담 지원 등 컨소시엄 내 품질관리 전반의 업무를 수행하며 데이터 신뢰성을 높였다. 비투엔 박순혁 AIX 그룹장은 “수년간 축적된 경험과 전문성을 바탕으로 인공지능(AI) 학습용 데이터 구축 사업 수행 능력을 다방면에서 인정받아 올해 2024년 초거대AI 데이터 구축 사업에서 멀티모달 데이터와 생성형AI 데이터 등 구축을 계획하는 여러 기관 및 기업의 문의가 이어지고 있다”고 말했다. 이어 “올해 고품질의 초거대AI 데이터 구축을 위해 대규모 말뭉치 데이터의 내용 유사성, 중복성, 유해성 등에 대해 품질 관리를 확대할 예정”이라며 “기존 SDQ for AI를 활용한 구문적 정확성, 통계적 다양성 검사 외에도 인공지능(AI) 학습용 데이터 통합 플랫폼인 라플로(Laflow)를 통해 의미적 정확성 검사에 대해서도 함께 지원할 예정”이라고 덧붙였다. 한편 비투엔은 2020년부터 2023년까지 4년 연속으로 인공지능(AI) 학습용 데이터 구축 컨소시엄 내 품질 검사 도구를 확보하고 있지 않은 과제들을 대상으로 ‘SDQ for AI’ 도구 및 품질 검증 서비스를 제공하는 등 다양한 형태로 인공지능(AI) 학습용 데이터 구축 사업에 참여하고 있다. 웹사이트: http://www.b2en.com
-
인피니언, AI 데이터 센터의 뛰어난 성능과 총소유비용을 가능하게 하는 고밀도 전력 모듈 출시인피니언 테크놀로지스는 동급 최고의 전력 밀도, 품질 및 총소유비용(TCO)을 가능하게 하는 AI 데이터센터용 TDM2254xD 이중-위상(dual-phase) 전력 모듈 시리즈를 출시한다고 밝혔다. TDM2254xD 시리즈는 OptiMOS™ MOSFET 기술의 혁신과 새로운 패키징 및 고유의 마그네틱 구조를 결합해 견고한 기계적 디자인으로 업계 최고의 전기 및 열 성능을 제공한다. 따라서 데이터 센터를 더 효율적으로 운영해 AI GPU(그래픽 프로세서 유닛) 플랫폼의 높은 전력 수요를 충족하고 TCO를 크게 줄이도록 한다. AI 서버는 기존 서버보다 3배 더 많은 에너지가 필요하며, 데이터 센터는 이미 전 세계 에너지 공급의 2% 이상을 소비한다. 따라서 탈탄소화를 앞당길 수 있는 혁신적인 전력 솔루션 및 아키텍처를 찾아야 한다. 친환경 AI 팩토리로의 여정을 위한 인피니언의 TDM2254xD 이중-위상 전력 모듈은 XDP™ 컨트롤러 기술과 결합해서 뛰어난 전기, 열, 기계적 동작으로 고성능 컴퓨팅 플랫폼에서 효율적인 전압 레귤레이션을 가능하게 한다. TDM2254xD 모듈의 고유한 디자인은 전류와 열전도에 최적화된 새로운 인덕터 디자인을 통해 전력 스테이지에서 방열판으로 열을 효율적으로 전달, 최대 부하에서 업계 평균 모듈보다 2% 더 높은 효율을 제공한다. GPU 코어의 전력 효율을 개선하면 상당한 에너지를 절약할 수 있다. 이는 생성형 AI를 컴퓨팅하는 데이터 센터가 수메가와트를 절약하도록 하며, 이것은 시스템 수명 동안 CO2 배출량을 줄이고 수백만달러의 운영 비용 절감으로 이어진다. 웹사이트: http://www.infineon.com