신경망 추론 엔진 IP 코어, 와트당 10 테라옵스 이상의 성능 발휘

베리실리콘, NN 압축 기술을 활용한 0.5~72 테라옵스 속도의 VIP8000 NN 프로세서 개발을 통해 딥 신경망 프로세싱 분야에서 리더십 지위 확고해 해

요약

0.5~72 테라옵스 속도로 상시 가동 IoT 에지에서 ASICs 서버에 이르기까지 확장 가능성 보유

14nm 프로세서 기술로 와트당 10 테라옵스 이상의 효율을 발휘

전적으로 프로그래밍이 가능한 프로세서는 OpenCL, OpenVX, 그밖에 다양한 유형의 NN 프레임워크(텐서플로우, 카페, 안드로이드NN, ONNX, NNEF 등)를 지원

i8, i16, fp16, fp32 등의 추론에 대한 네이티브 액셀러레이션(Native acceleration)이 가능하며 가변형 정밀도에서 광범위한 NN 네트워크 토폴로지가 가능

계층적 압축, 소프트웨어 틸팅/캐싱, 프루닝, 페치 스키핑, 레이어 머징 등 신기술의 도입으로 메모리 대역폭 요건이 대폭 감소

2017년에 10개 ASIC 개발업체들이 VIP8000 IP 라이선싱을 취득

2018-03-02 20:50
뉘른베르크, 독일--(Business Wire / 뉴스와이어)--베리실리콘(VeriSilicon Holdings Co., Ltd.)이 자사의 다목적 확장 가능 신경망 추론 엔진 패밀리 모델인 VIP8000을 출시하면서 여러 면에서 중요한 기록을 세웠다고 27일 밝혔다.

존 페디 리서치의 대표 존 페디(Jon Peddie) 박사는 “PC의 발명 이후로 컴퓨터 업계 최대의 발명은 AI와 머신 러닝이다. 이는 우리의 삶을 완전히 뒤바꿔놓고 상상하지 못할 정도로 향상시킬 잠재력을 갖고 있다. 이는 IBM이나 구글 같은 거대 기업의 시스템으로 가능하겠지만 그 기저를 뒷받침하는 것은 아주 작은 베리실리콘의 신경망 프로세서가 될 것이다. 2020년에 가서 우리는 AI 비서가 없이 우리가 어떻게 살아왔는지 실감이 가지 않을지도 모른다”고 말했다.

머신 러닝과 신경망 프로세싱은 내장형 프로세서가 가져올 새로운 시장 기회 중의 하나에 속한다. 인터내셔널 데이터 코퍼레이션(IDC)은 AI와 머신 러닝에 대한 투자가 2016년 80억달러에서 2020년 470억달러로 급증하게 될 것으로 예측했다. 베리실리콘은 자사의 NN 추론 IP 최신 모델 출시를 통해 이 분야 성장에 가장 중요한 주도 회사로 확고하게 자리잡았다. 업계 최고의 성능을 자랑하는 비반테 VIP8000 프로세서는 상시 가동 배터리로 작동되는 IoT 클라이언트에서 AI 서버 팜에 이르기까지 광범위한 어플리케이션에서 활용되고 있다.

VIP8000 모델에 대한 베리실리콘의 최신 업데이트는 추론 엔진 신경망 모델이 전보다 훨씬 높은 효율과 추론 속도로 작동되도록 설계되었고 이와 동시에 기존의 DSP, GPU, CPU 하이브리드 프로세서 방식과 비교해 볼 때 훨씬 적은 메모리 대역폭을 사용하도록 만들어졌다. 전적으로 프로그래밍이 가능한 VIP8000 프로세서는 주문제작성과 추후 버전과의 호환성 면에서 OpenCL, OpenVX, 그밖에 다양한 유형의 NN 프레임워크(텐서플로우, 카페, 안드로이드NN, ONNX, NNEF 등) 하에서 프로그래밍이 가능한 전용 고정기능 로직과 성능 및 메모리 효율 면에서 거의 대등하다. VIP8000 NN 아키텍처는 다양한 유형의 AI 작업을 처리할 수 있고 프로세서를 통과하는 데이터의 메모리 관리 또한 최적화할 수 있다.

베리실리콘의 NN 엔진은 모든 종류의 DSP, GPU, CPU 하이브리드 시스템에 비해 그 효율이 높을 뿐만 아니라 이미 18개월이 넘게 라이선스 취득 업체들에 사전 완결된 IP 코어로 공급했을 정도로 그 성능이 입증됐다. 2017년에만 해도 10곳이 넘는 ASIC 개발업체들이 경쟁 IP 솔루션 및 SoC 제품을 엄격하게 벤치마크 시험을 해본 후에 VIP를 선택한 바 있다. 베리실리콘은 다양한 업계에 걸친 고객들에게 ADAS, 자율주행차, 보안감시, 홈 엔터테인먼트, 이미징, 서버 전용 ASIC 등 어플리케이션에 성공적으로 라이선싱을 제공해왔다.

VIP8000 NN 프로세서는 성능이나 에너지 효율 면에서 업계 최고로 인정을 받았고 확장성 면에서도 시장에서 가장 유연한 플랫폼으로 알려져 있다. NN 엔진의 속도는 0.5~72 테라옵스(TeraOPS)에 달하며 에너지 효율은 최근 IP의 14nm 실행에 근거할 때 와트당 10 테라옵스가 넘는 것으로 측정되고 있다. 새로운 계층적 압축(Hierarchical Compression) 및 소프트웨어 틸팅/캐싱, 프루닝, 페치 스키핑(Fetch Skipping), 레이어 머징(Layer Merging) 등 신기술의 도입으로 VIP8000의 메모리 대역폭 요건은 다른 프로세서 아키텍처에 비해 훨씬 줄어들었다.

베리실리콘의 지적재산권 부문 최고전략책임자·수석부사장·총책임자 직을 겸하고 있는 웨이진 다이(Wei-jin Dai)는 “AI는 이미 세상 어느 곳에서나 찾을 수 있게 됐다. 특허 출원 중인 우리 신경망 압축 기술에 기반한 VIP8000 모델 패밀리는 내장형 제품에서 AI 기술 채택을 가속화하는 높은 성능을 보여준다. 임베디드에서 에지 서버 제품에 이르기까지 우리는 주요 고객들과 긴밀한 개발 협력 관계를 유지하고 있다. 이들 문제를 해소하기 위한 어플리케이션과 알고리즘은 갈수록 진보를 거듭하고 있고 우리는 AI 기술과 베리실리콘의 광범위한 IP 포트폴리오를 결합하여 혁신적인 솔루션을 고객들에 제공하는데 노력을 기울이고 있다. AI는 당연히 낮은 비용으로 최대한의 효율을 내는 방식으로 제공되어야 한다”고 말했다.

베리실리콘은 다양한 유형의 NN 프레임워크와 네트워크(텐서플로우, 카페, 안드로이드NN, 아마존 머신 러닝, ONNX, NNEF, 알렉스넷, VGG16, 구글넷, 욜로, 패스터 R-CNN, 모바일넷, 스퀴즈넷, 레스넷, RNN, LSTM 등)를 지원하며 개발자들이 고성능 신경망 모델과 머신 러닝 기반 어플리케이션을 개발하는데 도움이 되도록 수많은 소프트웨어 및 하드웨어 솔루션을 제공하고 있다.

베리실리콘 임베디드 월드 2018 참가

VIP8000 NN과 관련 베리실리콘 IP, NN 에코시스템 솔루션 개발 파트너, 주문형 실리콘 및 첨단 패키징(SiP) 턴키 서비스 등에 대해 보다 자세한 정보를 원할 경우 2월 27일~3월 1일 사이에 독일 뉘른베르크에서 열리는 임베디드 월드 2018 행사(4A번 홀 4A-360 부스)를 방문하도록 한다.

자세한 정보는 이메일(press@verisilicon.com)로 문의하면 된다.

비즈니스 와이어(businesswire.com) 원문 보기: http://www.businesswire.com/news/home/20180226006739/en/

[이 보도자료는 해당 기업에서 원하는 언어로 작성한 원문을 한국어로 번역한 것이다. 그러므로 번역문의 정확한 사실 확인을 위해서는 원문 대조 절차를 거쳐야 한다. 처음 작성된 원문만이 공식적인 효력을 갖는 발표로 인정되며 모든 법적 책임은 원문에 한해 유효하다.]

웹사이트: http://www.verisilicon.com

연락처

베리실리콘 홀딩스(VeriSilicon Holdings Co., Ltd.)
미야 콩(Miya Kong)
+86 21 51311118
press@verisilicon.com