YBPU Compiler · 라이브

엣지 디바이스에 AI를 바로 배포하세요

YBPU 컴파일러는 AI 모델을 타겟 하드웨어에 최적화된 바이너리로 변환합니다. Raspberry Pi부터 Jetson, Rockchip까지—단 몇 분 안에 C++ 라이브러리로 배포하세요.

컴파일러 실행하기
사용 방법

세 단계로 엣지 배포 완성

복잡한 크로스 컴파일 환경 없이, 브라우저에서 바로 시작하세요.

01

AI 모델 업로드

학습된 딥러닝 모델 파일을 업로드하세요. PyTorch, ONNX 등 다양한 프레임워크를 지원합니다.

02

타겟 하드웨어 및 정밀도 선택

배포할 엣지 보드를 선택하고, fp32 또는 fp16 정밀도를 지정하세요. 최적화 프리셋도 선택 가능합니다.

03

컴파일 패키지 다운로드 & 배포

컴파일된 libybpu_model.a 라이브러리와 헤더를 다운로드하세요. C++ 3줄로 추론을 시작할 수 있습니다.

지원 플랫폼

모든 주요 엣지 플랫폼 지원

ARM, x86, RISC-V 아키텍처를 지원하며, 지속적으로 새 타겟이 추가됩니다.

🍓

Raspberry Pi 3

ARMv8 / Cortex-A53

🍓

Raspberry Pi 4

ARMv8 / Cortex-A72

🍓

Raspberry Pi 5

ARMv8.2 / Cortex-A76

🪨

Rockchip 3328

RK3328 / Cortex-A53

🪨

Rockchip 3399

RK3399 / Cortex-A72+A53

Nvidia Jetson

Xavier / Orin / Nano

📱

Qualcomm Snapdragon

Hexagon DSP + ARM

🔌

Arduino

AVR / ARM Cortex-M

🔷

RISC-V

RV64GC / SiFive

🔵

Intel CPU

x86_64 / AVX2

🔴

AMD CPU

x86_64 / Zen

기술 사양

지원 형식 및 출력물

입력 모델 형식

모델 입력

  • 🔥
    PyTorch

    .pt / .pth 모델 파일

  • 📦
    ONNX

    Open Neural Network Exchange 포맷

  • 🧠
    TensorFlow / TFLite

    SavedModel 및 TFLite 포맷

출력 패키지

컴파일 출력물

  • 📚
    libybpu_model.a

    정적 라이브러리 + C++ 헤더

  • 🎯
    fp32 Package

    32비트 부동소수점 전정밀도

  • fp16 Package

    절반 정밀도, 더 빠른 추론

C++ 통합 예시
#include "ybpu_model.h"

YBPUModel model("model.param", "model.bin");
auto result = model.run(input_data);
지금 시작하기

최적화할 준비가 되셨나요?

지금 바로 컴파일러를 실행하거나, 문의 페이지를 통해 맞춤 지원을 요청하세요.