This website works better with JavaScript
Почетна
Преглед
Помоћ
Пријавите се
WangKang
/
QC_Specialized_Model_Training_Main
Прати
1
Волим
0
Креирај огранак
0
Датотеке
Дискусије
0
Захтеви за спајање
0
Вики
Грана:
master
Гране
Ознаке
master
QC_Specialized_...
/
recipes
/
quickstart
/
inference
WangKang
ea091b08ce
init
пре 6 месеци
..
code_llama
ea091b08ce
init
пре 6 месеци
local_inference
ea091b08ce
init
пре 6 месеци
mobile_inference
ea091b08ce
init
пре 6 месеци
README.md
ea091b08ce
init
пре 6 месеци
modelUpgradeExample.py
ea091b08ce
init
пре 6 месеци
README.md
Quickstart > Inference
This folder contains scripts to get you started with inference on Meta Llama models.
Code Llama
contains scripts for tasks relating to code generation using CodeLlama
Local Inference
contains scripts to do memory efficient inference on servers and local machines
Mobile Inference
has scripts using MLC to serve Llama on Android (h/t to OctoAI for the contribution!)
Model Update Example
shows an example of replacing a Llama 3 model with a Llama 3.1 model.