-
Tech Blog
디지털 전환이 선택이 아닌 필수가 되면서, 많은 기업 및 기관은 문서중앙화 시스템(ECM)을 도입해 효율적인 문서 관리와 강화된 보안을 기대하고 있습니다.그러나 최근 문서중앙화 시스템을 도입한 일부 기업에서 해킹사례가 증가하고 있습니다. 문서중앙화 시스템은 기업 내 문서를 효율적으로 관리하고, 기업 내부 문서에 대한 보안을 강화하기 위한 목적으로 도입되지만, 랜섬웨어, 바이러스 등에 취약한 보안 위협을 받고 있습니다. 오늘 포스팅에서는 더욱 안전한 문서중앙화 시스템을 만드는 ‘네임스페이스’ 방식 아키텍처에 대해 알아보겠습니다. 해킹에 취약한 파일서버 방식 아키텍처 기업 내 문서 보안을 위해 ECM을 도입함에도 해킹사례가 증가하는 원인이 무엇일까요? 정보보안 업계 관계자들은 “최근 발생하는 공공기관 및 기업의 문서 유출 사고는 파일 서버 방식의 시스템이 보안에 취약하기 때문이며, 특히 데이터 유출과 악성코드(랜섬웨어) 감염 및 확산에 취약한 문서중앙화 시스템의 아키텍처 구조가 주요 원인으로 지목되고 있다”고 파악하고 있습니다.국내 문서중앙화 솔루션 대부분은 랜섬웨어 및 악성코드 침입에 취약한 파일서버 방식으로 되어 있습니다. 파일서버 방식은 개인 PC 사용과 동일해 초기 사용 편의성이 높다는 장점이 있습니다. 하지만 파일서버 방식은 중앙 집중식 서버 구조로 랜섬웨어나 악성코드 침입에 취약하고, 문서가 특정 드라이브에 물리적으로 저장되어 있어 오히려 한 번의 보안 침해로 인해 전체 데이터 및 문서가 쉽게 유출될 수 있다는 치명적인 단점을 갖고 있습니다. 또한 사용자 수 증가에 따른 시스템 성능 저하 문제가 발생할 수 있으며, 단순 문서 저장의 개념에 머물러 있어 공유와 협업이 어렵고, 최신 IT 트렌드와의 연계 활용에도 한계가 있습니다. 이렇게 파일서버 방식이 보안이 취약함에도 불구하고, 많은 기업 및 기관들은 초기 도입 비용 및 사용 편의성이 높다는 이유로 도입하는 경우가 많습니다. 하지만 문서중앙화 시스템을 도입하는 가장 큰 이유를 다시 한 번 생각해본다면, 이러한 파일 서버 방식의 문서중앙화시스템 도입은 기업의 중요 문서 및 기밀 자산의 보안을 위해 재검토해보아야 할 것입니다. 안전한 문서중앙화 시스템 아키텍처는? 파일서버 방식과 다르게, Namespace(네임스페이스) 기반의 문서 중앙화는 문서의 실제 위치와 상관없이 가상으로 문서 자원을 관리함으로써, 랜섬웨어가 특정 드라이브를 감염시키더라도, 실제 문서가 물리적으로 해당 위치에 없기 때문에 감염을 피할 수 있습니다. 네임스페이스 방식 문서중앙화 시스템은 이렇듯 랜섬웨어 및 악성코드의 침입이 불가능한 구조로 보안 안정성이 뛰어나며, 대용량 데이터도 안정적으로 처리할 수 있습니다. 또한, 사용자 수가 증가해도 성능 저하가 없어 효율적인 시스템 운영이 가능합니다. 메타넷디엘의 ‘SOLME’ ECM 솔루션은 네임스페이스 기반으로 구축되었습니다. SOLME는 개인PC, 이메일, 파일서버 등 다양한 방식으로 분산 관리되던 기업 내부 자료를 중앙에 자동 보관, 통합, 관리해 모든 문서를 자산화하고 자료 유출을 방지합니다. 또한 SOLME는 단순히 문서를 저장 및 공유하는 것에 그치지 않고, 인공지능(AI) 대규모 언어모델(LLM) 기능을 연계해, 기업 내부 데이터 및 자료를 활용해 업무 효율성 및 생산성을 높일 수 있는 솔루션입니다. 더욱 안전한 문서중앙화 솔루션 SOLME ECM에 대해 알아보고 싶다면, 메타넷디엘과 상담하세요!
2025.03.06
-
Tech Blog
1월 말 '딥시크'가 등장하면서 전 세계가 말 그대로 발칵 뒤집혔습니다. 이 AI의 개발 비용은 560만 달러로, 메타가 '라마3'를 만들 때 투입했던 비용의 10분의 1 수준에 불과합니다. 일부에서는 이 비용이 과장됐다는 추정을 내놓기도 했지만, 어쨌든 비싼 GPU와 반도체를 쓰지 않고도 고성능의 AI를 만들 수 있다는 사실에 많은 사람들이 충격을 받았습니다. AI 정보 유출 논란딥시크가 화제가 된지 얼마 되지 않아, 국내 정부기관과 기업들은 '딥시크 사용 금지령'을 내렸습니다. 개인정보 및 기밀 유출 우려가 있었기 때문입니다. 실제로 딥시크는 사용자의 키보드 습관까지 파악하는 등, 과도한 정보를 수집하는 것으로 알려져있습니다. 캐나다의 사이버 보안 기업은 딥시크 코드에 중국 국영 통신사인 차이나모바일에 사용자 개인정보를 전송하는 기능이 숨겨져 있다고 주장하기도 했죠. 개인정보보호위원회는 이달 17일 딥시크 앱에 대해 국내 서비스 잠정 중단 조치를 내렸습니다. 개인정보위에 따르면 자체 분석을 진행한 결과, 제3사업자와의 통신 기능 및 개인정보 처리 방침 상 미흡한 부분이 확인됐습니다. 또한 앱 이용자 정보가 일부 틱톡 모회사인 '바이트댄스'로 넘어간 사실도 확인됐습니다. 한국 AI 시계 빨라지나? 개인정보 유출, 과장된 개발비 등 논란과는 별개로 딥시크가 AI 개발에 대한 인식의 전환을 가져온 것은 분명합니다. AI 개발이 천문학적인 비용으로 인해 미국 빅테크 기업만이 소화 가능한 영역이라는 것이 기존의 통념이었으나, 딥시크는 충분한 기술력을 갖춘 스타트업도 AI 모델을 개발할 수 있다는 것을 입증했습니다. 미중 AI 패권 전쟁이 치열해지는 가운데, 정부는 뒤처지지 않기 위해 부랴부랴 대응에 나섰습니다. 20일 개최된 '제3차 AI컴퓨팅 인프라 특별위원회'에서는 '월드 베스트 LLM 프로젝트' 추진 소식이 전해졌습니다. 'AI 국가대표 정예팀'을 선발해 글로벌 톱 수준의 LLM을 개발하는 것이 목표입니다. 이들에게 필요한 데이터와 GPU 등 핵심 인프라를 집중 지원할 계획입니다. 또한 고성능 GPU 1만장을 조기확보해 국가AI컴퓨팅센터 서비스를 조기 개시할 계획을 밝혔습니다. 범용 인공지능 독자 기술 확보를 위해 약 1조원 규모의 R&D 프로젝트를 추진하겠다는 방안도 언급됐습니다. 딥시크는 보안 이슈 등 다양한 후폭풍을 일으키며 미·중 AI 패권 경쟁의 신호탄이 됐습니다. 우리 정부도 AI 경쟁력 강화를 위해 나섰지만, 단순한 자원 투입만으로는 글로벌 시장에서 살아남기 어렵다는 지적이 나옵니다. 전문가들은 AI 안보 강화를 위해 자체 AI 역량 확보가 필수적이라며, 이를 뒷받침할 실효성 있는 규제 개선과 투자가 필요하다고 강조합니다. 딥시크가 촉발한 변화 속에서 한국 AI 산업이 도약할 수 있을지, 앞으로의 대응이 주목됩니다.
2025.02.26
-
Tech Blog
숨가쁜 속도로 AI(인공지능) 기술이 발전하고 이를 뒷받침하는 생태계도 빠르게 성장하고 있습니다. 이제 한 발 떨어져서 AI를 관찰, 분석하던 단계에서 대학의 핵심 역량으로 전환시키는 접근이 요구되는 시점입니다. AI 인프라는 대학에 필요한 어답티브 러닝 시스템, AI 조교 및 챗봇 같은 AI 서비스의 개발과 운영을 위해 우선적으로 갖춰야 할 환경입니다. 대학의 요구 사항이 잘 반영된 AI 인프라는 대학의 AI 서비스 개발과 운영 효율 그리고 성공적 활용을 보장하는 토대입니다. 오늘 포스팅에서는 대학의 성공적인 AI 인프라 구축에 필요한 기술 항목을 정리했습니다. AI 인프라 구성 요소 대학이 목표한 결과 달성을 지원할 수 있는 AI 인프라 구축에는 다양한 요소들이 포함됩니다. 데이터 관리 시스템을 시작으로 AI 플랫폼과 툴, 컴퓨팅 시스템 및 네트워크가 요구되고 이들 요소들을 구조적으로 통합하고 활용하기 위한 구축 전략과 방법론이 필요합니다. 하나씩 살펴보겠습니다. ▶ 데이터 저장 & 관리AI 구현에는 안전성, 확장성, 그리고 중앙 집중화된 데이터 관리가 필수적입니다. 이를 위해 구조화된 데이터뿐만 아니라 비구조화된 데이터, 이미지 등 다양한 유형의 데이터를 신속하게 처리하고, 정제·변환·관리할 수 있는 체계적인 데이터 관리 체계가 필요합니다.▶ 컴퓨팅 시스템 AI 모델 생성, 학습과 추론에는 많은 컴퓨팅 자원이 투입됩니다. 온프레미스, 클라우드 및 두 방식을 섞은 하이브리드 모델이 가능합니다. 요즘은 시간과 비용에서 장점을 가진 클라우드 방식을 선호하는 대학이 많습니다. ▶ AI플랫폼 & 툴AI 서비스에 최적화된 AI 모델 개발(텐서플로우, 파이토치 등), 모델 훈련(MLflow, W&B), 배포(도커, 쿠버네티스), 모니터링 및 관리 기능을 제공하는 요소들로 수준 높은 AI 서비스를 구현하는 핵심입니다.▶ 네트워크AI 서비스 개발과 운영 과정에는 대량의 데이터 트래픽이 발생하기 때문에 이를 위한 고대역폭의 네트워크 능력이 요구됩니다.▶ 보안AI가 이용할 민감 데이터를 보호하고 개인정보보호법 등 규정 준수를 위해 접근 제어, 암호화 같은 강력한 보안 체계를 필요로 합니다. 데이터 저장 & 관리 데이터는 AI 서비스 수준을 결정하는 지표입니다. 따라서 관련성 높은 양질의 데이터가 많을수록 AI 모델의 성능도 좋아집니다. 체계적 데이터 관리가 필요한 이유입니다. - 데이터 관리 AI 데이터의 저장 및 관리 방식을 의미합니다. 최근에는 원본 데이터를 데이터 레이크에 저장하고, 특정 AI 서비스에 활용할 데이터를 정제·처리하여 데이터 웨어하우스에서 관리하는 하이브리드 방식을 택하는 대학이 늘고 있습니다. - 데이터 저장데이터 저장 방식으로는 확장성과 경제성이 뛰어난 클라우드 스토리지, 높은 데이터 통제력을 제공하는 온프레미스, 그리고 두 방식을 결합한 하이브리드 모델을 활용할 수 있습니다. - 데이터 관리 툴AI 데이터 관리를 위해 오라클 같은 DBMS, 하둡 및 스파크 등의 빅데이터 처리 프레임워크, ETL 등 데이터 통합 툴 및 데이터 에셋 발견, 분류와 기록을 위한 데이터 카달로그 툴이 필요합니다. - 데이터 거버넌스 & 보안 AI 데이터의 소유권, 품질, 접근 권한 및 개인정보 보호와 관련된 명확한 정책이 수립되어야 합니다. 또한, 이를 실행하기 위한 접근 제어, 암호화, 데이터 마스킹, 정기 감사, 그리고 규정 준수 방안이 마련되어야 합니다. - 데이터 라이프 사이클AI 데이터 입력, 저장, 처리, 분석과 학습, 모델 배포 및 아카이빙 그리고 삭제로 이어지는 데이터 라이프 사이클 정의와 운영 프로세스 수립이 필요합니다. 컴퓨팅 시스템 AI 서비스 개발과 운영에는 많은 컴퓨팅 자원이 필요하며, 높은 비용 구조와 전문적 관리 역량이 요구됩니다. 따라서, 비용, 인력, 기술적 역량 등을 종합적으로 고려한 AI 인프라용 컴퓨팅 체계 기획이 필수적입니다. - 컴퓨팅 자원가장 기본적인 자원인 CPU를 포함해 GPU, TPU와 특정 AI 서비스에 맞춘 커스텀 하드웨 개발에 이용되는 FPGA 등이 필요할 수 있습니다. - 컴퓨팅 방식확장성과 경제성이 높은 클라우드, 대학 자체적으로 관리 및 통제 가능한 온프레미스 빙식 및 둘을 합친 하이브리드를 선택할 수 있습니다. - 고려 사항대학에 가장 적합한 컴퓨팅 체계를 선정하기 위해 AI를 적용할 업무의 요건, 비용 구조, 확장성 및 관련 인력 현황 그리고 유지보수 방식 등을 고려해야 합니다. AI 플랫폼 & 툴 AI 플랫폼은 AI 모델 구축, 학습, 배포에 필요한 모든 구성 요소를 통합적으로 제공하는 솔루션이며, AI 툴은 AI 워크플로 내에서 특정 작업을 수행하는 전문화된 도구로 정의할 수 있습니다. 대학은 목표하는 AI 서비스 모델과 특성에 맞춰 적절한 플랫폼과 툴을 선택할 수 있습니다. - AI 플랫폼AI 플랫폼은 5가지 기능 - AI 모델 개발(텐서플로우 등), 데이터 준비, 모델 훈련(MLflow 등), 배포, 모니터링 & 관리 -을 제공합니다. - AI 툴필요한 AI 툴에는 개발 언어(파이썬 등), 머신러닝 프레임워크(텐서플로우 등), 데이터 사이언스 라이브러리(넘피 등), 딥러닝 라이브러리(케라스 등) 및 기계 학습 라이프사이클을 관리하는 MLflow 등을 포함됩니다. - 고려 사항최적의 AI 플랫폼과 툴 선정하기 위해 대학이 고려할 사항은 다음과 같습니다.AI 프로젝트 요건 | 사용 편리성 | 예상 비용 | 확장성 | 대외 시스템 통합 | 커뮤니티 및 지원 네트워크 AI 개발 작업은 네트워크 의존도가 매우 높으며, 특히 대규모 데이터셋과 분산 처리가 필요한 작업에서는 더욱 중요합니다. 네트워크는 컴퓨팅 시스템과 AI 플랫폼의 성능을 극대화하기 위한 필수적인 기반 인프라입니다. - 주요 기능잘 구성된 네트워크는 AI 모델 학습 과정에서 생기는 데이터 전송(스토리지 <-> 컴퓨팅 시스템 <-> AI 워크플로우), 멀티플 GPU와 서버를 이용한 분산 학습 그리고 대량의 트래픽이 발생하는 AI 모델 배포 작업의 안정적 처리를 보장합니다. - 주요 기술AI 서비스 개발을 위한 네트워크 환경에 이더넷, HPC와 AI 클러스트에 사용되는 인피니밴드, 네트워크 성능 최적화를 위한 SDN, 최적의 메모리 활용을 위한 RDMA 기술 등을 연계해서 활용하는 경우가 늘고 있습니다. - 고려 사항AI 개발과 운영 효율을 높여줄 수 있는 네트워크 인프라를 위해 네트워크 대역폭 확보, 지연 시간 최소화 대책, 최적의 데이터 흐름과 성능 보장을 위한 네트워크 토폴로지 설계, 네트워크 혼잡 제어 대책 그리고 확장성이 검토돼야 합니다. 물론 보안은 두 말하면 잔소리입니다. 보안 AI 서비스 개발과 운영에서 보안은 절대 타협할 수 없는 요소입니다. 특히 대학에서는 학생과 교직원의 민감한 데이터 및 기밀 연구 데이터를 보호해야 하기 때문에, AI 서비스 기획 단계부터 철저한 보안 전략 및 체계적인 계획 수립이 필수적입니다. - AI 보안 위험AI학습 데이터에 악성 코드를 숨겨 놓는 데이터 포이즈닝, 학습 데이터나 모델을 조작하는 모델 인버전 공격과 입력 데이터를 왜곡하는 애브버세리얼 공격 등이 AI 확산과 함께 증가하기 때문에 보안체계도 이에 맞게 진화해야 됩니다. - 주요 기술AI 데이터 보안에는 암호화, 접근 제어, 데이터 검증과 민감 정보 제거 기술을 적용하고, AI 모델에는 애드버세리얼 공격에 대비한 모델 하드닝, AI모델 무결성 점검, 모델 버전 관리 및 주기적 감사 기술을 이용할 수 있습니다. 또한 AI 서비스에는 입력 검증, 사용자/권한 인증 및 보안 테스트 실행 등을 추천합니다. 최근에는 AI 기술을 이용한 침입 탐지, 악성코드 탐지, 비정상 행위 및 취약성 스캐닝 보안 기법도 많이 활용하고 있습니다. - 고려 사항검증된 보안 기술은 안전한 AI 서비스 개발과 운영을 보장합니다. 하지만 기술만으로는 완벽한 보안을 담보할 수 없습니다. 기술 도입과 더불어 데이터 수집과 저장, 사용, 삭제 관련 기준과 프로세스(즉, 라이프 사이클)를 정의하고 대학 내부의 데이터 사일로 통합 및 관리 체계도 고려되어야 합니다. 그리고 마지막으로 데이터를 다루는 인원 대상의 보안 교육이 주기적으로 이뤄져야 합니다. AI 인프라 구축은 대학의 지속 가능성을 확보하기 위한 전략적 투자로 해석되어야 합니다. 완성도 높은 AI 서비스의 개발과 운영을 지원하기 위해서는 데이터 저장 및 관리, 컴퓨팅 체계, AI 플랫폼 및 툴, 네트워크, 보안의 다섯 가지 핵심 요소를 면밀히 검토해야 합니다. 지속 가능한 AI 인프라는 기술만으로 완성되지 않습니다. 기술뿐만 아니라 명확한 데이터 관리 정책과 프로세스(데이터 라이프사이클) 정의, 그리고 관련 인력을 위한 교육과 훈련 프로그램이 함께 마련되어야 합니다. 대학 내 AI 인프라 구축에 관심이 있으시다면, 메타넷디엘과 상담하세요!
2025.02.18
-
Tech Blog
최근 기업들은 인공지능을 통한 혁신을 꾀하고 있습니다. 델 테크놀로지스는 기업이 AI를 효과적으로 도입하고 활용할 수 있도록 '델 AI 팩토리'를 선보이고 있습니다. 오늘 포스팅에서는 델 AI 팩토리가 무엇인지 자세히 알아보겠습니다. 델 AI 팩토리란? 델 테크놀로지스의 'AI 팩토리'는 기업이 AI를 효과적으로 도입하고 활용할 수 있도록 지원하는 통합 솔루션 및 서비스 생태계입니다. 이 플랫폼은 서버, 스토리지, 네트워크 등 델의 엔드투엔드(E2E) AI 포트폴리오를 기반으로 구축되었으며, 엔비디아, 인텔, 스노우플레이크 등 다양한 파트너사와의 협력을 통해 개방형 생태계를 형성하고 있습니다. 즉, 기업은 생성형 AI를 포함한 모든 AI 워크로드를 지원할 수 있는는 '델 AI 팩토리' 솔루션을 통해 비즈니스 혁신을 빠르게 추진할 수 있습니다. 'AI 팩토리'는 기업의 AI 도입을 가속화하고, 데이터의 가치를 최대한 활용할 수 있도록 설계되었습니다. 이를 통해 기업은 데이터 수집 및 저장부터 분석, 모델 구축, 훈련, 추론, 비즈니스 적용에 이르는 AI 수명주기 전반을 효율적으로 관리할 수 있습니다. 특히, 델의 AI 팩토리는 기업의 고유한 AI 수요를 충족시키기 위해 맞춤형 솔루션을 제공합니다. 이를 통해 기업은 비용을 효율적으로 관리하고 투자 대비 수익(ROI)을 향상시킬 수 있습니다. 또한, 강력한 데이터 보호 솔루션을 통해 기업의 데이터를 안전하게 보호하고, 지적 재산을 보호하여 위험을 줄이고 신뢰를 구축할 수 있습니다. 유티모스트INS와 함께하는 델 AI 팩토리 도입 유티모스트INS는 델 AI 솔루션을 제공하는 전문 파트너사로, 인공지능 워크로드를 지원하기 위한 종합적인 인프라, 소프트웨어 통합, 클라우드 전략 및 전문 서비스를 제공합니다. 인프라스트럭처는 AI 팩토리의 토대입니다. 유티모스트INS는 데스크탑부터 클라우드에 이르는 광범위한 델의 AI 포트폴리오를 제공하여, AI 투자 규모를 적절히 조정하고 어디서나 AI를 유연하게 배포할 수 있도록 지원합니다. 이를 통해 AI 최적화 서버, 스케일아웃 스토리지, 하이퍼컨버지드 인프라(HCI), 데이터 보호 등 다양한 인프라를 지원합니다. 또한, 개방형 생태계를 통해 다양한 툴과 데이터 소스를 활용하여, 고객이 데이터를 완벽하게 제어하면서도 커뮤니티와의 협업을 촉진하는 오픈 소스 환경에서 생성형 AI를 지원합니다. 델의 전문팀과 유티모스트INS는 개방형 파트너 생태계를 갖추고 있어, 포괄적인 지원을 통해 고객이 원하는 AI 혁신 활동을 최대한 활용할 수 있도록 합니다. 유티모스트INS는 엔드 투 엔드 AI 솔루션을 통해 데이터 수집부터 모델 배포까지 전 과정을 가속화하며, 확장성과 보안을 강조합니다. 고객은 사전 검증된 아키텍처와 파트너 생태계를 통해 신속한 AI 도입이 가능합니다. 작성: 유티모스트INS Dell Cloud 사업본부
2025.02.14
-
Tech Blog
많은 기업이 디지털 전환(DX)의 길을 걷고 있습니다. 그리고 이 길은 최근 인공지능 전환(AX)으로 이어지고 있습니다. 이런 변화 속에서 엔터프라이즈 컴퓨팅은 클라우드 네이티브라는 구조적 변화의 시기를 맞이하고 있습니다. 이 모든 변화를 관통하는 키워드는 바로 ‘오픈 소스’입니다. 하이브리드 시대를 주도하는 오픈 소스 프로젝트 DX, AX 전환은 클라우드 네이티브 인프라와 플랫폼 상에서 이루어집니다. 물리적 인프라는 가상 머신(VM), 컨테이너를 중심으로 하이브리드화 되어 가고 있습니다. 이를 주도하는 것은 오픈스택(OpenStack), 오픈시프트(OpenShfit) 같은 오픈 소스 프로젝트입니다. 조금 더 자세히 알아볼까요? 대다수의 엔터프라이즈 IT 환경은 VM과 컨테이너가 공존하는 컴퓨팅 환경으로 진화하고 있습니다. 기존 애플리케이션은 VM 환경에서 안정적으로 운영되고, 새로운 클라우드 네이티브 애플리케이션은 컨테이너 기반으로 개발 및 배포됩니다. 이러한 환경에서 오픈 소스는 상용 솔루션의 한계를 극복하고, 유연하고 확장 가능한 인프라 구축을 위한 핵심 요소로 주목받고 있습니다. 오픈 소스 기반 컨테이너 기술은 AX 전환의 핵심이기도 합니다. 쿠버네티스는 컨테이너화된 애플리케이션의 배포, 확장, 관리를 자동화하여 효율성과 유연성을 극대화하는 오픈 소스 플랫폼입니다. 클라우드 네이티브 환경에 최적화된 쿠버네티스는 기업들이 퍼블릭 클라우드와 온프레미스 환경을 통합하여 운영하는 하이브리드 클라우드 전략의 핵심으로 자리매김했습니다. 마치 퍼즐 조각을 맞추듯, 쿠버네티스는 다양한 환경을 하나로 연결하여 효율적인 IT 운영을 가능하게 합니다. 오픈 소스를 향한 부담 VM과 컨테이너가 공존하는 복잡한 엔터프라이즈 컴퓨팅 환경에서 오픈 소스는 특정 기업과 기술에 종속 걱정 없이 기술 주권을 강화할 수 있는 기회를 제공합니다. 하지만 여전히 오픈 소스에 대한 부담이 존재하기도 합니다. 과거에는 오픈 소스 기술에 대한 안정성과 신뢰할 수 있는 기술 지원 업체가 없는 것이 문제였습니다. 이는 2025년 현재 더 이상 걱정 거리가 아닙니다. 레드햇을 필두로 주요 오픈 소스 프로젝트의 기업의 눈 높이에 맞는 패키징 전략과 기술 지원 체계를 갖춘 기업들의 생태계가 안정적으로 구축되어 있습니다. 그렇다면 현재 시점에서 볼 때 기업이 느끼는 오픈 소스의 부담은 무엇일까요? 바로 오픈 소스 기술 스택을 현재 컴퓨팅 환경에 맞게 최적화하여 도입하는 것입니다. 가령 서버, 스토리지, 네트워크 등의 인프라 가상화부터 시작해 엔터프라이즈 컨테이너 플랫폼 구축, CI/CD 기반 DevOps 파이프라인 정립, 마이크서비스 아키텍처 기반 앱 개발 등을 위한 광범위한 오픈 소스 기술 스택이 기업의 컴퓨팅 환경에 맞게 유기적으로 통합해 도입해야 합니다. 여기에 요즘 모든 조직의 1순위 과제가 된 AI 전략 실행 역시 현재 사용 중인 개발, 보안, 운영 환경과 정책에 맞게 최적화하여 쿠버네티스 같은 오픈 소스 기술 스택을 통합해야 도입해야 합니다. 오픈 소스 시대의 기술 내재화 살펴본 바와 같이 DX와 AX가 기업의 핵심 과제로 떠오르면서 오픈 소스 기술은 이러한 변화를 가속화하는 필수 요소가 되었습니다. 오픈 소스 기술을 효과적으로 활용하기 위해서는 '기술 내재화'에 대한 새로운 시각이 필요합니다. 과거에는 기술 내재화를 단순히 외주 개발을 맡긴 후 소스 코드를 확보하거나 특정 솔루션의 운영 능력을 키우는 것으로 생각했습니다. 하지만 오픈 소스가 DX, AX의 엔진 역할을 하는 시대의 기술 내재화는 좀 더 넓은 의미를 갖습니다. 이제는 오픈 소스 생태계 전체를 이해하고, 끊임없이 변화하는 기술 트렌드를 읽어내는 능력이 중요합니다. 마치 뷔페에서 나에게 맞는 음식을 선택하듯, 다양한 오픈 소스 기술 중에서 우리 조직에 필요한 것을 골라내고, 이를 조합하여 최적의 시스템을 구축할 수 있는 안목을 갖춰야 합니다. 물론 이러한 능력을 하루 아침에 갖추기는 어렵습니다. 락플레이스와 같은 오픈 소스 전문 기업의 도움을 받는 것이 효과적인 전략이 될 수 있습니다. 락플레이스는 운영체제부터 컨테이너 플랫폼, 데이터베이스, 미들웨어까지, 기업 IT 환경 전반에 걸쳐 오픈 소스 솔루션을 제공하고, 이를 기업 환경에 맞게 최적화하여 구축, 운영할 수 있도록 지원합니다. 마치 경험 많은 셰프의 레시피를 전수받는 것처럼, 락플레이스의 노하우를 통해 오픈 소스 기술을 빠르게 내재화할 수 있습니다. 오픈 소스 시대의 기술 내재화는 단순히 기술을 '소유'하는 것이 아니라, 기술을 '이해'하고 '활용'하는 능력을 키우는 것입니다. 락플레이스와 함께라면 오픈 소스라는 넓은 바다에서 길을 잃지 않고 성공적으로 항해할 수 있습니다. 오픈 소스 기술에 대해 더 알고 싶으시거나 도움을 받고 싶으시다면, 락플레이스와 상담하세요!
2025.02.06
-
Tech Blog
지난 12월 26일 'AI 기본법'이 국회 본회의를 통과하고, 이달 14일 국무회의에서 의결되면서 우리나라는 유럽연합(EU)에 이어 두 번째로 AI 관련 법안을 제정한 국가가 됐습니다. 이에 기반해, 정부는 AI 기본법의 세부 시행령 구성에 박차를 가하고 있습니다. AI 기본법이란? 'AI 기본법'의 정식 명칭은 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'입니다. AI 산업을 지원하고 규제할 법적 근거를 담고 있죠. 정식 시행은 2026년 1월부터 입니다. 이 법안은 AI에 관한 국가 차원의 거버넌스 체계를 정립하고 AI 산업의 체계적 육성과 위험 사전 예방을 위한 법적 기반을 제공합니다. 주요 내용으로는 인공지능 기본계획 수립·시행, 대통령 소속의 국가인공지능위원회 설치, 과학기술정보통신부 장관의 인공지능정책센터 지 정, 인공지능안전연구소 운영 등이 포함됩니다. 특히 고영향 AI와 생성형 AI를 규제 대상으로 포함시켜, 이들에 대한 투명성 확보 의무, 안전성 확보 의무, 사업자 책무를 규정했습니다. 이러한 AI 기본법 제정으로 그동안 법 부재로 인한 회색지대였던 국내 AI 산업이 AI R&D, 학습용 데이터, AI 데이터센터, 집적단지 구축 등의 진흥 토대를 마련하게 되었습니다. AI 기본법 제정 이후 정부의 후속 조치 정부는 AI 기본법의 효과적인 시행을 위해 다양한 후속 조치를 진행하고 있습니다. 우선 과학기술정보통신부는 하위법령 정비단을 출범시켜 시행령 초안을 신속히 마련하고 있으며, 이 정비단에는 정부와 산업계, 학계, 법조계 전문가들이 참여할 예정입니다. 또한 과기정통부는 1조원 규모의 범용인공지능 개발사업을 기획·추진하고, AI 전환 스타트 업 및 신산업 분야 기업 성장을 위한 정책펀드를 지원할 계획입니다. 2030년까지 국가 'AI 컴퓨팅 센터' 구축을 추진하고 있으며, AI 분야를 국가전략기술에 추가해 세액공제 지원도 강화할 방침입니다. 더불어 2월 중 데이터센터 구축과 관련한 불필요한 규제 개선 등의 내 용이 담긴 AI 컴퓨팅 인프라 종합대책도 발표할 예정입니다. AI 기본법, 무엇을 보완해야 할까? AI 기본법이 제정되었지만, 여러 전문가들은 보완이 필요한 부분들을 지적하고 있습니다. 가장 큰 문제점은 고영향 AI에 대한 정의와 범위가 모호하다는 것입니다. 현재 법은 고영향 AI를 '사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능시스템'으로 규정하고 있지만, 구체적인 예시와 범위는 정해져 있지 않습니다. 또한 단순 민원만으로도 정부가 사실조사에 나설 수 있도록 한 부분이 지나친 규제가 될 수 있다는 우려도 제기되고 있습니다. 생성형 AI 개발에 필요한 학습 데이터 목록 공개 등에 대해서도 저작권 보호와 산업 진흥 사이에서 균형 잡힌 접근이 필요한 상황입니다. 전문가들은 초기에는 규제보다 진흥에 초점을 두어야 한다고 조언하고 있습니다.
2025.01.31
-
Tech Blog
대학들은 학사관리, 교육, 연구 및 행정 등 여러 분야에서 업무 효율 향상과 비용 절감이 라는 과제에 당면해 있습니다. AI(인공지능)는 대학들이 마주한 이런 과제들을 해결하고 새로운 혁신을 이끌어낼 동력으로 주목받고 있습니다. AI가 특정 기술이 아닌 기반 요소화되는 흐름이 확산되면서 AI의 조기 활용과 역량 확보를 주문하는 전문가들이 늘고 있습니다. 가트너, 맥킨지 및 PwC 같은 글로벌 컨설팅 기업들과 전문가들이 한 목소리로 “AI는 모든 조직이 확보해야 하는 기반 요소 기술로 진화하고 있다”는 주장을 하는 이유이기도 합니다. 이에 MetaE4U는 대학의 성공적인 AI 도입과 활용을 위한 가이드를 제시하고자 합니다. 이를 통한 AI 가치의 극대화로 우리 대학들이 미래 경쟁력을 높일 수 있기를 바랍니다. 대학의 AI 도입 가이드 1. AI 도입 목표 정의단순한 신기술 도입이 아닌, 대학의 핵심적 문제 해결 및 목표 달성을 위한 AI 도입 목표와 전략을 정의해야 합니다. 2. AI 도입 분야 선정대학이 AI를 도입해 가장 많은 효과와 가치를 얻을 수 있는 교육이나 행정 등 대상 분야와 사례를 선정해야 합니다. 3. 사용자 중심의 구현개발자 및 관리자 중심이 아닌 사용자 중심의 업무 플로우 구성, 기능 및 사용 환경을 제공하기 위한 접근 전략을 세워야 합니다. 4. 데이터 중심의 접근AI 성공 여부를 결정하는 핵심 요소인 데이터 확보와 활용을 위한 데이터 거버넌스 체계와 관리 방안을 수립해야 합니다. 5. AI 도입 고려 사항전문 인력, 데이터 확보, IT인프라 구축 및 변화 관리 등 AI 도입에 필수적인 항목들을 세부적으로 검토하고, 도입 전략을 수립해야 합니다. 6. 대학의 조직 문화대학 경영진의 강력한 의지와 지원, 조직 내부의 협력과 소통 등 AI 도입의 성공을 보장하는 조직 문화가 필요합니다. 7. 전문 파트너와 협력AI 기술, 프로젝트 역량과 경험을 갖추고 대학과 유기적으로 협력해서 AI 도입, 운용과 변화관리를 지원하는 파트너를 선정하는 것이 중요합니다.
2025.01.22
-
Tech Blog
지난번 포스팅에서는 프론트엔드 모니터링의 개념과 과제에 대해 살펴보았습니다. -디지털 비즈니스 성과를 높이는 프론트엔드 모니터링 ① 프론트엔드 모니터링이란?-디지털 비즈니스 성과를 높이는 프론트엔드 모니터링 ② 프론트엔드 모니터링의 과제 이번에는 엔드투엔드 성능 모니터링과 연계 분석을 통해 전체 시스템의 성능을 최적화하는 방법을 알아보겠습니다. 엔드투엔드 모니터링이란? 엔드투엔드 모니터링은 사용자요청이 애플리케이션을 통해 처리되는 과정을 추적하여 성능을 측정하고 문제를 분석하는 과정입니다. 이를 통해 시스템의 성능 저하 지점을 파악하고, 문제를 신속하게 해결할 수 있습니다. 보통 다음과 같은 흐름으로 이루어집니다:사용자 요청 → WEB(Frontend) → Application(Backend) → Database → 최종 응답 연계 분석의 중요성현대 애플리케이션은 다양하고 복잡한 서비스와 인프라로 구성되어 있어, 각 요소 간의 상호작용을 이해하는 것이 중요합니다. 이러한 상호작용을 분석하여 문제의 원인을 파악하고, 시스템의 효율성을 높일 수 있습니다. 데이터독(Datadog)을 활용한 엔드투엔드 모니터링과 연계 분석 1. RUM(Real User Monitoring)과 APM의 연계 분석RUM은 사용자가 웹 페이지를 로드하거나 상호작용할 때 발생하는 로딩 시간, 클릭 엑션, 오류 등을 추적합니다.RUM에서 발생한 요청에 대해 APM과 연계분석으로 서버 측에서 어떻게 처리되는지 추적합니다. 예를 들어, 특정 버튼 클릭이 웹 서버로 전송된 후, 어떤 API가 호출되고 데이터베이스 쿼리가 실행되는지 추적할 수 있습니다. 2. APM과 인프라 모니터링의 연계 분석APM은 애플리케이션의 성능(예: 응답 시간, 오류)을 추적하여 성능 문제를 감지합니다.인프라 모니터링을 통해 CPU, 메모리, 네트워크 등 리소스 사용 상태를 분석하여 APM의 성능 저하의 문제가 인프라 성능과 관련이 있는지 연계하여 확인합니다. 3. 로그와 RUM, APM의 연계 분석 애플리케이션과 서버에서 발생하는 로그를 수집하고 분석합니다.RUM과 APM에서 확인된 문제를 로그와 연계하여 분석에 도움을 줄 수 있습니다. 4. 연계 분석의 흐름 예시 연계 분석을 통한 성능 최적화 데이터독을 활용한 연계 분석은 다음과 같은 이점을 제공합니다 - 전체 시스템 가시성 확보: 어플리케이션부터 인프라까지 각 구성 요소의 상태를 한눈에 파악하여, 문제를 종합적으로 분석할 수 있습니다- 문제의 근본 원인 분석(RCA): 각 구성 요소 간의 상호작용을 분석하여, 성능 저하의 원인을 식별하고 해결할 수 있습니다- 자동화된 경고 및 대응: 모니터(알람) 임계 값을 설정하여, 문제가 발생하면 자동으로 경고를 받고 워크플로우를 통해 대응할 수 있습니다 성능 최적화, 문제 해결을 위해 데이터독에서 제공하는 기능들로 연계 분석을 수행하여 병목 및 문제 구간을 찾아내고, 이를 해결하기 위한 최적화 방안을 마련할 수 있습니다 엔드투엔드 모니터링과 연계 분석은 디지털 비즈니스의 성공을 위한 핵심 요소입니다. 데이터독과 같은 통합 모니터링 도구를 활용하면 전체 시스템의 성능을 효과적으로 모니터링하고 최적화할 수 있습니다. 이를 통해 사용자 경험을 향상시키고, 비즈니스 성과를 높일 수 있습니다. 데이터독 솔루션을 활용한 프론트엔드 모니터링에 대해 더 궁금하시다면, 메타넷티플랫폼과 상담하세요! <작성: 메타넷티플랫폼 HCSales4T>
2025.01.15
-
Tech Blog
디지털 시대의 기업들은 서비스 품질을 개선하고, 프로젝트 관리의 효율성을 극대화하기 위해 다양한 디지털 솔루션을 도입하고 있습니다. 특히, 프로젝트 기반 서비스 비즈니스에서는 고객의 요구에 맞춘 정확한 일정 관리, 자원 배치, 비용 추적 등이 중요한 요소로 작용합니다. 이러한 복잡한 서비스 프로세스를 관리하는 데 있어 SAP Professional Service는 강력한 도구로 자리 잡고 있는데요 이번 블로그에서는 어떻게 서비스 산업에서 효율적인 프로젝트 관리와 자원 최적화를 지원하는지에 대해 다뤄보겠습니다. Professional Service란?SAP Professional Service는 프로젝트 관리, 자원 계획, 계약 관리, 청구 처리 등 여러 핵심 비즈니스 프로세스를 통합적으로 관리할 수 있는 솔루션을 제공합니다. 이를 통해 기업들은 서비스 제공의 정확성을 높이고, 프로젝트의 성공적인 완료를 보장하며, 비용 절감과 자원 최적화를 동시에 달성할 수 있습니다. Professional Service는 청구 가능한 직원과 함께 프로젝트를 판매하고 제공함으로써 수익을 창출하는 목적성을 가지고 있습니다. 이 솔루션을 주로 사용하는 기업은 IT 및 비즈니스 컨설팅, 감사 및 세무 회사인데요. 이들은 수익성이 가장 높은 프로젝트와 수익성이 낮은 프로젝트에 대한 투명성을 필요로 합니다. 그렇다면, Professional Service(PS)와 유사한 기능을 하는 EPPM에 대해서도 알아보겠습니다. EPPM과의 차이점EPPM(Enterprise Project and Portfolio Management)이란, R&D / Engineering LoB(Line of Business) 솔루션에 속해 있는 Function Area로, 주로 투자 프로젝트, 간접비 프로젝트(내부), 수주프로젝트, 통계 정보로 구분하는데요. Professional Service와 EPPM은 유사한 기능을 제공하지만, 차이가 존재합니다. ▶ PS: 프로젝트 기반 서비스의 E2E 지원을 위한 구체적인 솔루션(ex. 컨설팅/감사/세무 계약)으로, 프로젝트 재무, 청구 및 자원 관리에 초점을 둡니다.▶ EPPM: 산업 전반, 유형 별 프로젝트 관리 기능(ex. 투자, 주문 생산, R&D, IT, 내부 프로젝트)으로, 건설, 엔지니어링 등 구조화된 프로젝트에 초점을 둡니다.따라서, 두 솔루션은 프로젝트 관리라는 공통점을 가지고 있지만, 용도와 목표가 다르기 때문에 기업이 선택하는 솔루션은 필요에 따라 달라질 수 있습니다. Professional Service의 기능 및 이점 Professional Service는 SAP S/4HANA Cloud Public Edition에만 존재하는 새로운 기능이라고 볼 수 있으며, 기존 SAP의 모듈과 긴밀하게 통합되어 있는데요. 프로젝트 재무 및 리소스 관리에 중점을 둔 Order-to-Cash 프로세스를 E2E(End-to-End)로 지원합니다. 특정 솔루션과 모범 사례 프로세스를 기반으로 한 전용 사용자 인터페이스를 제공하며, 프로젝트 생성부터 인적 관리, 판매 오더 생성, 청구 문서, 이벤트 기반 수익 인식 등의 많은 프로세스가 자동화됩니다. 이러한 자동화는 업무 효율성을 높이고, 프로젝트 수행에 필요한 다양한 관리 기능들을 원활하게 연결해줍니다. 상업 프로젝트는 영업, 재무, 구매, 청구 등 여러 분야에 긴밀하게 통합되어 있어, SAP Professional Service는 이러한 복잡한 상호작용을 효과적으로 관리하고, 각 영역 간의 흐름을 원활하게 지원합니다. 결론적으로 SAP Professional Service는 단순한 프로젝트 관리 시스템을 넘어, 서비스 제공의 정확성, 자원 최적화, 그리고 비용 절감을 동시에 달성할 수 있는 강력한 솔루션입니다. 이를 통해 기업들은 프로젝트의 각 단계를 보다 효율적으로 관리하고, 성공적인 프로젝트 완료를 보장할 수 있습니다. 이러한 통합적인 서비스 관리와 자원 최적화를 통해 기업은 더 나은 서비스 품질을 제공하고, 전체적인 비즈니스 성과를 극대화할 수 있습니다. 다음 포스팅에선 인공지능 기반 소프트웨어 기업(A사)의 고객 사례에 대해 공유드릴 예정이니, 많은 관심 부탁드립니다.
2025.01.09
-
Tech Blog
Microsoft Intune이란? Microsoft Intune은 클라우드 기반의 서비스로, 조직에서 모바일 디바이스와 앱을 관리하고 보호할 수 있게 해줍니다. Intune을 사용하면 조직의 데이터와 리소스에 접근하는 모든 디바이스를 통제하고, 보안 정책을 적용하고, 원격으로 데이터를 삭제하거나 잠글 수 있습니다. 또한 Intune은 사용자에게 편리하고 안전한 앱 사용 환경을 제공하고, 조직의 IT 팀과 사용자 간의 협업을 촉진합니다. Microsoft Intune의 주요 기능과 다양한 플랫폼과 디바이스를 지원합니다. Intune은 Windows, iOS, Android, macOS 등의 주요 운영체제와 스마트폰, 태블릿, 노트북, PC 등의 다양한 디바이스를 관리할 수 있습니다. ● 클라우드 기반의 서비스로, 별도의 인프라 구축이 필요하지 않습니다. Intune은 Microsoft Azure 클라우드 플랫폼에서 운영되므로, 조직에서 별도의 서버나 하드웨어를 구매하거나 설치할 필요가 없습니다. 또한 Intune은 항상 최신 버전으로 자동 업데이트되므로, 최신 기능과 보안 패치를 적용할 수 있습니다. ● 통합된 관리 콘솔을 제공합니다. Intune은 Microsoft Endpoint Manager라는 통합된 관리 콘솔을 통해, 디바이스, 앱, 사용자, 그룹, 정책, 보고서 등을 한 곳에서 관리할 수 있습니다. 또한 Intune은 Microsoft 365, Azure Active Directory, Azure Information Protection, Microsoft Defender for Endpoint 등의 다른 Microsoft 서비스와도 통합되어, 보다 강력하고 효율적인 관리를 가능하게 합니다. ● 사용자 중심의 관리를 지원합니다. Intune은 사용자의 역할, 부서, 위치, 디바이스 유형 등에 따라 다양한 정책과 설정을 적용할 수 있습니다. 또한 Intune은 사용자가 자신의 디바이스를 등록하고, 앱을 설치하고, 문제를 해결할 수 있도록 도와주는 자가 서비스 포털을 제공합니다. 이를 통해 사용자는 자신의 디바이스를 자유롭게 사용하면서도, 조직의 데이터와 리소스를 안전하게 보호할 수 있습니다. 하반기 Intune 신기능 요약하반기를 마무리하며 매월 새로운 빌드에서 어떤 기능이 추가되었는지 간단히 요약했습니다. ♣ Intune의 빌드는 Intune 관리센터 – 테넌트 관리에서 확인할 수 있습니다. 하반기에 빌드는 2407~2412이며, 각각의 빌드의 새로운 기능은 아래와 같습니다. [서비스 릴리스 2407]- Copilot을 사용하여 장치 쿼리를 위한 Kusto 쿼리 생성지원 : 24년 1월 Intune의 고급 분석에서 디바이스 쿼리를 발표하여 디바이스 상태 및 구성에 대한 데이터를 실시간으로 액세스 할 수 있다고 말했습니다. 디바이스 쿼리는 KQL(Kusto Query Language)로 작성되며, Intune의 Copilot으로 인하여 디바이스 정보와 컨텍스트를 쉽게 얻을 수 있게 되었습니다. 공개 미리보기에 나와있는 새로운 기능을 통해 관리자는 Copilot에게 장치 데이터를 요청할 수 있습니다. 이를 통해 KQL에 대한 포괄적인 지식이 없더라도 관리자는 필요한 데이터를 보다 신속하게 얻을 수 있습니다. 또한 Copilot은 모든 기술 수준의 IT 관리자가 고급 작업을 쉽게 수행할 수 있고 앞으로도 계속해서 수행할 수 있도록 지원함으로써 엔드포인트 관리 환경을 개선할 수 있습니다. 해당 새로운 기능에 대한 자세한 내용은 여기를 클릭하면 자세히 확인할 수 있습니다. - 사용자는 Intune을 통해 macOS 앱을 주문형으로 설치 : 최근 1년 동안 Intune을 통한 macOS 관리가 많이 발전했습니다. 7월 최신 개선 사항은 Intune 회사 포털을 통해 관리되지 않는 응용 프로그램(PKG 및 DMG)을 다운로드할 수 있는 사용자에게 제공할 수 옵션을 소개합니다. “필수” 유형과 함께 “사용 가능한” 유형을 추가했기 때문에 선택적인 애플리케이션을 배포하기 위해 워크 플로우나 타사 도구에 의존할 필요가 없습니다. 이 기능은 관리자와 사용자 모두에게 시간 절약이 가능하며, mac 디바이스 관리자에게 가장 많이 요청되는 기능입니다. 자세한 내용은 관리되지 않는 PKG 앱과 LOB 앱의 설명서에서 확인할 수 있습니다. - Windows 365 Cloud PC 보안 기준 업데이트 : 보안 설정을 구성하는데 시간이 많이 걸릴 수 있으며, 보안 기준이 없는 경우 보안을 설정하기 위해 많은 혼란이 있을 수 있습니다. 보안 기준은 클릭 몇 번으로 MS의 보안 권장 설정을 Intune과 함께 배포하는 정책 템플릿으로 Windows 365 보안 기준에 대한 첫 번째 업데이트가 발표되었습니다. 보안 위협으로 보호하기 위해 이 기준을 채택하는 것이 좋습니다. 이 기준은 새로운 기술로 구축되었기 때문에 다음과 같은 이점도 얻을 수 있습니다. ▶기준 버전 업데이트의 신속한 배포 ▶향상된 사용자 인터페이스 및 보고 환경(설정별 상태 보고서 등) ▶Intune 포털 전체에서 보다 일관된 이름 지정 ▶프로필에 할당 필터 사용 기능 이러한 보안 기준은 특정 요구 사항에 맞게 사용자 지정할 수 있습니다. 이 업그레이드의 경우 기준선에서 사용자 지정을 수동으로 업데이트해야 합니다. 자세한 내용은 Windows 보안 기준선 배포를 참조하시기 바랍니다.
2025.01.07