✨ 探索 · 创造 · 分享

你好,我是 J M

热衷折腾技术,专注于 AI 部署与本地模型。
这里记录我的项目、思考与成长。

向下

从代码到模型

一个热爱技术、正在探索 AI 推理部署与本地模型应用的学习者。

你好!从接触第一行代码开始,就对「让机器理解世界」这件事充满好奇。 现在我的重心在 AI 部署方向——把大模型跑起来、优化推理速度、 搭建本地推理环境。

喜欢折腾各种开源模型和部署框架。从 llama.cpp 到 vLLM, 从 GGUF 量化到 API 封装,踩过的坑都变成了经验。 这里是我分享这些的地方。

✨ 兴趣方向

🤖 本地推理 🦙 LLM 部署 ⚡ 模型量化 🐳 Docker 🐍 Python ☁️ Cloudflare 🔧 Linux 🖥️ 自建服务

做过的项目

(等你来填 🚀)

🦙

本地模型推理服务

基于 llama.cpp 搭建的本地 LLM 推理服务,支持 GGUF 模型加载和 OpenAI 兼容 API 接口。

llama.cpp Python Docker
了解更多 →
🌐

个人网站

就是你现在看到的这个站!清新风格,融合柔和色彩与舒适体验,部署在 Cloudflare Pages。

HTML/CSS Cloudflare Design
了解更多 →
📝

更多项目即将到来

这里会放更多项目——AI 工具、部署脚本、开源贡献,都在路上。

Coming Soon

技术栈 & 工具

(按你的实际情况调整~)

AI / 模型部署

llama.cpp vLLM Ollama GGUF 量化 OpenAI API Hugging Face Docker

编程语言

Python JavaScript HTML / CSS Shell

运维 & 工具

Linux Git Cloudflare Nginx 系统管理

最新文章

记录折腾过程,分享踩坑经验。

即将发布

写下你的第一篇文章

比如:「如何用 llama.cpp 搭建本地推理服务」或者「AI 部署学习路线」

即将发布

分享你的踩坑经历

技术博客最重要的是真诚,踩过的坑就是最好的内容素材。