다나와 AI 벤치마크 랩에 오신 여러분은 환영합니다!
AI 벤치마크 랩에서는 각각의 PC가 지닌 AI 관련 성능을 종합점수로 확인해 볼 수 있습니다.
성능 데이터 추출에는, 모바일 및 PC 환경에서 폭넓게 활용하는 긱벤치(Geekbench) AI와 3D MARK로 유명한 UL 솔루션의 프로키온(Procyon) AI 프로그램을 이용합니다.
국내 어디에서도 찾아 볼 수 없는 특별한 AI 콘텐츠, 지금 만나 보세요.
|
UX3407QA-SB284W |
|
|||
제품소개 |
긱벤치 AI |
프로키온 AI |
오늘의 벤치마크 대상은 ASUS 젠북 A14 UX3407QA-SB284W (1,198,000원/SSD 256GB)다. 퀄컴 스냅드래곤 X 시리즈 기반으로 제작된 차세대 AI 노트북으로, 초경량과 장시간 사용을 모두 만족시키는 모델이다. 무게는 단 899g으로 14인치 노트북 중에서도 최상위급 휴대성을 자랑한다.
프로세서는 퀄컴 스냅드래곤 X1-26-100(최대 3.0GHz)을 탑재, 고효율 ARM 아키텍처 기반으로 웹서핑, 문서작업, 인강 등 일반적인 활용에 최적화돼 있다. 여기에 NPU 45TOPS 성능을 갖춘 AI 엔진이 더해져, 오프라인 음성 인식·이미지 처리 등 다양한 AI 기능이 하드웨어 기반에서 즉시 구동된다.
디스플레이는 14인치 WUXGA(1920x1200) 해상도의 IPS 레벨 패널로, 400니트 밝기와 60Hz 주사율을 지원해 야외에서도 충분한 시인성을 제공한다. 저장장치는 512GB NVMe SSD가 기본이며, 램은 16GB LPDDR5x 온보드로 탑재됐다. 배터리는 48Wh 용량으로 최대 20시간까지 사용이 가능하고, USB-PD 방식의 충전도 지원해 외부 활동이 많은 사용자에게 적합하다. 단자는 USB-C 2개, USB-A 1개, HDMI 2.1 등 실용적인 구성이며, 운영체제는 윈도우11 홈이 기본 제공된다.
윈도우 온 ARM 환경을 바탕으로 한 이 제품은 일반적인 x86 애플리케이션 호환성에 다소 제약이 있을 수 있으나, 휴대성과 배터리 효율, AI 기능을 중시하는 사용자에게는 새로운 선택지가 될 수 있다.
|
UX3407QA-SB284W |
|
|||
제품소개 |
긱벤치 AI |
프로키온 AI |
긱벤치 AI는 NPU, CPU, GPU 등 각 프로세서가 AI 작업에서 얼마나 효율적으로 작동하는지 파악하기 위해 ONNX를 사용한다. ONNX(Open Neural Network Exchange)는 AI 모델의 프레임워크 간 호환성을 제공하는 개방형 표준 형식을 말한다.
정밀도 |
데이터 형식 |
속도 |
정확도 |
특징 |
㉠ Quantized |
INT8 (8비트 정수) |
가장 빠름 |
낮음 |
속도 최적화, 모바일 AI |
㉡ Half |
FP16 (16비트 부동소수점) |
중간 |
중간 |
속도-정확도 균형 |
㉢ Single |
FP32 (32비트 부동소수점) |
가장 느림 |
가장 높음 |
정밀 연산, AI 훈련 |
ONNX는 정밀도에 따라 다시 3가지로 나뉘는데 각 정밀도는 AI 모델의 성능, 연산 속도, 메모리 사용량 등에 영향을 미친다. AI의 추론 속도를 보기 위해서는 ㉠Quantized(INT8)를, AI 훈련 정확도를 보기 위해 ㉡Single(FP32) 또는 ㉢Half(FP16)를 테스트하는 것.
이번 노트북은 Qualcomm 칩셋을 탑재했기 때문에 Qualcomm 칩셋 전용 AI 엔진 벤치마크를 추가로 진행했다.
◎ CPU Score
CPU Score |
Quantized |
Half (FP16) |
Single (FP32) |
ONNX CPU | 5582 | 2572 | 1665 |
ONNX QNN | 26648 | 15509 | 1771 |
테스트 결과 ONNX QNN 백엔드는 ONNX CPU 대비 전반적으로 우수한 AI 추론 성능을 보였다.
특히 Quantized (INT8) 연산에서 ONNX QNN이 26,648점을 기록하며 가장 높은 점수를 보여줬고, 이는 ONNX CPU의 동일 항목 점수인 5,582점보다 약 377% 높은 수치다.
FP16 (Half Precision) 연산에서도 ONNX QNN이 15,509점으로, ONNX CPU의 2,572점 대비 약 5배 이상 높은 성능을 기록했다. Single Precision (FP32) 에서는 두 백엔드 간의 격차가 줄어들었지만, 여전히 ONNX QNN이 1,771점으로 ONNX CPU의 1,665점보다 약간 높은 성능을 보였다.
이러한 결과는 QNN 백엔드가 Qualcomm 하드웨어의 AI 가속 기능을 적극 활용하여, 특히 INT8 및 FP16과 같은 경량화 연산에서 강력한 최적화를 제공함을 보여준다. 따라서 AI 추론 속도와 전력 효율이 중요한 환경에서는 QNN 백엔드를 사용하는 것이 큰 이점이 될 수 있다
|
UX3407QA-SB284W | |
|||
제품소개 |
긱벤치 AI |
프로키온 AI |
프로키온 AI 벤치마크는 NPU, CPU, GPU 등 다양한 프로세서가 AI 작업에서 얼마나 효율적으로 작동하는지를 평가하기 위해 사용한다. 텍스트 생성, 이미지 생성, 컴퓨터 비전 등 다양한 AI 작업의 성능을 비교할 수 있도록 설계되어 하드웨어별 AI 성능 차이를 분석하고, 실사용 환경에서의 최적화 가능성을 평가할 수 있다.
◎ Computer Vision Benchmark
젠북 A14의 Computer Vision Benchmark 점수는 CPU나 GPU가 아닌 HTP(Hexagon Tensor Processor)의 성능을 기반으로 측정된 수치다. HTP란 Qualcomm이 자사 SoC에 탑재한 AI 전용 하드웨어 가속기로, 고성능 저전력의 추론 처리를 위해 설계되었다.
일반적인 CPU나 GPU보다 딥러닝 모델, 특히 이미지 분류·객체 탐지·세그멘테이션 같은 Computer Vision 작업에 훨씬 최적화되어 있으며, QNN(Qualcomm Neural Network) 백엔드를 통해 효율적으로 활용된다.
MobileNet V3 : 모바일 및 임베디드 장치에서 이미지 분류 및 객체 탐지에 사용
ResNet 50: 딥러닝에 사용되는 50개 층의 심층 신경망 모델, 이미지 분류 및 객체탐지에 사용
Inception V4 : Google이 개발한 CNN 모델, 이미지 인식 및 분류에 사용
DeepLab V3 : 이미지의 의미론적 분할(Semantic Segmentation)에 특화된 CNN 모델
* CNN : 이미지 및 영상 데이터 처리에 특화된 딥러닝 모델
YOLO V3 : 자율 주행, 감시 시스템 등에 사용
REAL-ESRGAN : 이미지 업스케일링, 사진 및 영상 복원, 게임 그래픽 향상, AI 아트 등에 사용
HTP 장치의 Integer 정밀도 기반 AI 연산 성능을 측정한 결과, 전반적으로 빠르고 일관된 추론 속도를 보였다. 특히 MobileNet V3에서는 0.33ms, ResNet 50은 0.73ms로 매우 짧은 처리 시간을 기록하며, 경량 및 중간 수준 복잡도의 모델에 적합한 성능을 나타냈다. Inception V4와 같이 구조가 복잡한 모델에서도 1.48ms로 안정적인 처리 성능을 유지했고, DeepLab V3 (4.82ms)나 YOLO V3 (3.49ms)와 같이 높은 연산량을 요구하는 모델에서도 우수한 응답 속도를 보였다.
다만 고해상도 이미지 복원 작업을 수행하는 REAL-ESRGAN3에서는 91.70ms로 상대적으로 시간이 오래 걸렸지만, 여전히 CPU 단독 처리보다 나은 성능으로, 복잡한 AI 작업에서도 일정 수준 이상의 효율성을 유지함을 보여준다.
전체 종합점수는 1,749점으로, 이는 HTP가 Qualcomm의 AI 전용 하드웨어답게 정확도 손실을 최소화하면서도 빠른 추론이 가능한 Integer 기반 연산에 최적화되어 있음을 의미한다. 따라서 전력 효율성과 실시간 AI 처리가 필요한 모바일 또는 초경량 노트북 환경에서 HTP는 매우 강력한 선택지가 될 수 있다.
AI Benchmark LAB
by danawa
기획, 글 / 다나와 홍석표 hongdev@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com