YBPU Compiler · 라이브
엣지 디바이스에 AI를 바로 배포하세요
YBPU 컴파일러는 AI 모델을 타겟 하드웨어에 최적화된 바이너리로 변환합니다. Raspberry Pi부터 Jetson, Rockchip까지—단 몇 분 안에 C++ 라이브러리로 배포하세요.
컴파일러 실행하기사용 방법
세 단계로 엣지 배포 완성
복잡한 크로스 컴파일 환경 없이, 브라우저에서 바로 시작하세요.
01
AI 모델 업로드
학습된 딥러닝 모델 파일을 업로드하세요. PyTorch, ONNX 등 다양한 프레임워크를 지원합니다.
02
타겟 하드웨어 및 정밀도 선택
배포할 엣지 보드를 선택하고, fp32 또는 fp16 정밀도를 지정하세요. 최적화 프리셋도 선택 가능합니다.
03
컴파일 패키지 다운로드 & 배포
컴파일된 libybpu_model.a 라이브러리와 헤더를 다운로드하세요. C++ 3줄로 추론을 시작할 수 있습니다.
지원 플랫폼
모든 주요 엣지 플랫폼 지원
ARM, x86, RISC-V 아키텍처를 지원하며, 지속적으로 새 타겟이 추가됩니다.
🍓
Raspberry Pi 3
ARMv8 / Cortex-A53
🍓
Raspberry Pi 4
ARMv8 / Cortex-A72
🍓
Raspberry Pi 5
ARMv8.2 / Cortex-A76
🪨
Rockchip 3328
RK3328 / Cortex-A53
🪨
Rockchip 3399
RK3399 / Cortex-A72+A53
⚡
Nvidia Jetson
Xavier / Orin / Nano
📱
Qualcomm Snapdragon
Hexagon DSP + ARM
🔌
Arduino
AVR / ARM Cortex-M
🔷
RISC-V
RV64GC / SiFive
🔵
Intel CPU
x86_64 / AVX2
🔴
AMD CPU
x86_64 / Zen
기술 사양
지원 형식 및 출력물
입력 모델 형식
모델 입력
- 🔥PyTorch
.pt / .pth 모델 파일
- 📦ONNX
Open Neural Network Exchange 포맷
- 🧠TensorFlow / TFLite
SavedModel 및 TFLite 포맷
출력 패키지
컴파일 출력물
- 📚libybpu_model.a
정적 라이브러리 + C++ 헤더
- 🎯fp32 Package
32비트 부동소수점 전정밀도
- ⚡fp16 Package
절반 정밀도, 더 빠른 추론
C++ 통합 예시
#include "ybpu_model.h"
YBPUModel model("model.param", "model.bin");
auto result = model.run(input_data);