本地部署

Ollama实用指南:本地部署与管理大型语言模型

本文详细介绍了Ollama这一强大的开源工具,包括其核心概念、快速入门、API参考、命令行工具以及高级功能,帮助用户轻松在本地环境下载、运行和管理大型语言模型。

Llama.cpp 技术详解:轻量级大模型推理引擎

本文详细介绍了Llama.cpp这一高性能、轻量级的大型语言模型推理框架,包括其核心概念、使用方法、高级功能以及生态系统,帮助读者全面了解如何在消费级硬件上高效运行LLM。