林子杨的个人网站
I'm gonna make it happen
林子杨的个人网站
I'm gonna make it happen
首页
文章
项目
经历
联系
简历
本地部署
Ollama实用指南:本地部署与管理大型语言模型
本文详细介绍了Ollama这一强大的开源工具,包括其核心概念、快速入门、API参考、命令行工具以及高级功能,帮助用户轻松在本地环境下载、运行和管理大型语言模型。
Llama.cpp 技术详解:轻量级大模型推理引擎
本文详细介绍了Llama.cpp这一高性能、轻量级的大型语言模型推理框架,包括其核心概念、使用方法、高级功能以及生态系统,帮助读者全面了解如何在消费级硬件上高效运行LLM。
引用
×