Llama.cpp
Версия от 14:51, 23 июля 2025; In.wiki (комментарии | вклад)
llama.cpp — это библиотека с открытым исходным кодом, которая выполняет инференс с использованием различных больших языковых моделей, таких как Llama[1].
Она разрабатывается совместно с проектом GGML, тензорной библиотекой общего назначения[2].
В состав библиотеки входят инструменты командной строки, а также сервер с простым веб-интерфейсом[3].
Примечания
- ↑ Connatser, Matthew. How this open source LLM chatbot runner hit the gas on x86, Arm CPUs . theregister.com. Дата обращения: 15 апреля 2024.
- ↑ Gerganov, Georgi. ggerganov/ggml . GitHub (17 мая 2024).
- ↑ Mann, Tobias. Intro to speculative decoding: Cheat codes for faster LLMs (англ.). theregister (15 декабря 2024).