메모리 확장과 자체 연산능력을 갖춘 지능형 메모리

Computational Memory

메모리 확장과 자체 연산능력을 

갖춘 지능형 메모리

Computational Memory

CXL 기반 메모리 확장성

Computational Memory는 CXL 3.0를 지원하여 CPU의 

메모리 채널수를 늘리지 않고도 256GB DDR5 DIMM 4채널을 연결하여 메인 메모리를 최대 1TB까지 확장할 수 있습니다.

이는 대용량 데이터를 메모리에 올려놓고 처리해야 하는 

응용처에서 불필요한 데이터 복제 및 이동을 줄여 

전체 시스템 효율을 높일 수 있습니다. 

또한 PCIe Gen6 인터페이스를 통해 

최대 128GB/s의 대역폭 확장이 가능합니다.

Near Data Processing
기술을 통한
데이터 처리 효율성 향상

Computational Memory는 멀티코어 기반의 자체 

프로세서를 탑재하여 데이터와 근접한 위치에서 병렬적으로 

오프로딩 작업(Near Data Processing, NDP)을 수행하여 

시스템의 데이터 처리 속도와 효율성을 높입니다.

NDP 기술은 인터페이스에서 데이터가 이동하는 데 발생하는 

지연 시간을 최소화하고, 대용량 데이터 처리가 필요한 응용처의 총 소유 비용(TCO)을 획기적으로 절감시킵니다. 

FPGA 프로토타입으로
검증된 성능 

FPGA 프로토타입은 데이터베이스 가속화에서

서버 CPU 대비 46%의 쿼리 처리 시간 감소를 보였으며,

ASIC에서는 95%까지 감소시킵니다. (TPC-H 기준) 

최선단 공정 적용으로 성능 극대화

Computational Memory는 삼성 파운드리의 

선단 공정(4nm)을 사용하여

전력 효율과 성능을 극대화합니다. 

강력한 RAS Feature - Double-die Chipkill Correction

* RAS : Reliability, Availability, Serviceabiltiy

Multi-bit/Multi-die DRAM ECC(Error Correction Code)

및 Chipkill을 지원하여 치명적인 시스템 오류를

방지할 수 있으며, SSD RAID 기능을 통해 신뢰성을 높입니다. 

Applications

LLM VECTOR DATABASES

  • 최신 LLM은 벡터 데이터베이스를 활용하여 학습 후 업데이트된 정보를 검색합니다.
  • 모델 크기의 급격한 증가를 억제하기 위해, 벡터 데이터베이스는 보다 집중적으로 활용될 것으로 예상됩니다.
  • 메모리에서 벡터 데이터베이스의 가속화는 LLM의 발전에 중요한 역할을 할 수 있습니다.

SCALE-OUT DATABASES

  • AI 학습/추론 이전에도 가치를 창출하기 위해 많은 양의 데이터를 처리해야 합니다.
  • Spark, Databricks, Snowflake와 같은 스케일 아웃 데이터베이스는 ETL에서 광범위하게 사용됩니다. 이러한 클러스터는 보통 수많은 서버로 구성됩니다.
  • 분석 쿼리 엔진을 계산 메모리로 오프로드하면 클러스터 크기를 크게 줄일 수 있습니다. 

GRAPH DATABASES

  • 그래프 데이터베이스는 소셜 네트워크에서 광범위하게 사용되며 노드 및 관계를 기반으로 방대한 양의 데이터를 처리합니다.
  • 그래프 알고리즘은 대부분 노드 간의 관계를 순회하는 것을 포함합니다. 핵심은 포인터를 병렬로 Traverse 하는 것입니다.
  • 메모리 최적화 아키텍처를 사용하는 멀티 코어는 CPU보다 포인터 트래버스를 처리하는 데 훨씬 더 적합합니다.

CXL 기반 메모리 확장성

Computational Memory는 CXL 3.0를 지원하여 CPU의 메모리 채널 수를 늘리지 않고도


256GB DDR5 DIMM 4채널을 연결하여 메인 메모리를 최대 1TB까지 확장할 수 있습니다.

이는 대용량 데이터를 메모리에 올려놓고 처리해야 하는 응용처에서


불필요한 데이터 복제 및 이동을 줄여 전체 시스템 효율을 높일 수 있습니다.

또한 PCIe Gen6 인터페이스를 통해 최대 128GB/s의 대역폭 확장이 가능합니다.

Near Data Processing
기술을 통한
데이터 처리 효율성 향상

Computational Memory는 멀티코어 기반의 자체 프로세서를 탑재하여 

데이터와 근접한 위치에서
병렬적으로 오프로딩 작업(Near Data Processing, NDP)을 

수행하여
시스템의 데이터 처리 속도와 효율성을 높입니다. 

NDP 기술은 인터페이스에서 데이터가 이동하는 데 발생하는 지연 시간을 최소화하고,


대용량 데이터 처리가 필요한 응용처의 총 소유 비용(TCO)을 획기적으로 절감시킵니다.

FPGA 프로토타입으로
검증된 성능 

Computational Memory FPGA 프로토타입은 

데이터베이스 가속화에서


서버 CPU 대비 46%의 쿼리 처리 시간 감소를 보였으며,


ASIC에서는 95%까지 감소시킵니다. (TPC-H 기준) 

최선단 공정 적용으로 성능 극대화

Computational Memory는 삼성 파운드리의 선단 공정(4nm)을 사용하여 전력 효율과 성능을 극대화합니다.

강력한 RAS Feature - Double Die Chipkill Correction  

* RAS : Reliability, Availability, Serviceabiltiy

Multi-bit/Multi-die DRAM ECC(Error Correction Code) 및 Chipkill을 지원하여
치명적인 시스템 오류를 방지할 수 있으며, SSD RAID 기능을 통해 신뢰성을 높입니다. 

Applications

LLM VECTOR DATABASES

  • 최신 LLM은 벡터 데이터베이스를 활용하여 학습 후 업데이트된 정보를 검색합니다.
  • 모델 크기의 급격한 증가를 억제하기 위해, 벡터 데이터베이스는 보다 집중적으로 활용될 것으로 예상됩니다.
  • 메모리에서 벡터 데이터베이스의 가속화는 LLM의 발전에 중요한 역할을 할 수 있습니다.

SCALE-OUT DATABASES 

  • AI 학습/추론 이전에도 가치를 창출하기 위해 많은 양의 데이터를 처리해야 합니다.
  • Spark, Databricks, Snowflake와 같은 스케일 아웃 데이터베이스는 ETL에서 광범위하게 사용됩니다. 이러한 클러스터는 보통 수많은 서버로 구성됩니다.
  • 분석 쿼리 엔진을 계산 메모리로 오프로드하면 클러스터 크기를 크게 줄일 수 있습니다. 

GRAPH DATABASES 

  • 그래프 데이터베이스는 소셜 네트워크에서 광범위하게 사용되며 노드 및 관계를 기반으로 방대한 양의 데이터를 처리합니다.
  • 그래프 알고리즘은 대부분 노드 간의 관계를 순회하는 것을 포함합니다. 핵심은 포인터를 병렬로 Traverse 하는 것입니다.
  • 메모리 최적화 아키텍처를 사용하는 멀티 코어는 CPU보다 포인터 트래버스를 처리하는 데 훨씬 더 적합합니다.

Xcelerate Your
Intelligence


XCENA Inc.

사업자등록번호: 710-81-02837


주소: 경기도 성남시 분당구 판교역로 241번길 20, 미래에셋벤처타워 8층


대표자 이름: 김진영

© 2024 XCENA Inc. | All Rights Reserved

Xcelerate
Your Intelligence

엑시나 주식회사

 

대표자: 김진영

사업자등록번호: 710-81-02837


주소: 경기도 성남시 분당구 판교역로 241번길 20, 미래에셋벤처타워 8층


© 2024 XCENA Inc. | All Rights Reserved