Published on2024年7月27日HuggingFace + Ollama + Llama 3.1:轻松搞定Llama 3.1中文微调版本安装LLMOllama Meta公司最近发布了Llama 3.1,[但在中文处理方面表现平平](https://www.ifb.me/blog/ai/cloudflarellama31-mi)。幸运的是,现在在Hugging Face上已经可以找到经过微调、支持中文的Llama 3.1版本。这篇文章将手把手教你如何在自己的Mac电脑上安装这个强大的模型,并进行详细测试,让你轻松享受流畅的中文AI体验。准备好了吗?让我们一起开始吧!
Published on2024年7月14日Kubernetes + Ollama:10 分钟教你在 Kubernetes 中快速部署 OllamaLLMOllama 在现代云原生应用的开发和部署过程中,Kubernetes 已成为最流行的容器编排工具。而 Ollama 作为一款高效安装大模型的工具,能与 Kubernetes 完美结合,实现高效、可扩展的大模型部署。本文将带你在 10 分钟内学会如何在 Kubernetes 中部署 Ollama。
Published on2024年7月9日Mac M1 + Ollama + Llama3:30 分钟教你在个人电脑快速安装配置大模型LLMOllama你是否也在为周围的人热烈讨论大模型,而自己却无法参与其中而感到苦恼?别担心!今天,我们将带你通过一个简易且高效的教程,在个人电脑上快速安装和配置大模型。让大模型不再是你交流中的障碍,从此轻松应对各种AI话题。
Published on2024年7月7日Obsidian + Smart Connection + Ollama:让本地私有大模型成为你的笔记智能体ObsidianOllama 由于学校、公司或其他外部环境的限制,很多小伙伴无法使用诸如 OpenRouter、OpenAI 这样的外部闭源大模型。而最近也有不少人在留言中询问,如何在 Obsidian 的 Smart Connection 插件中使用自己搭建的 Ollama 模型。为了响应大家的需求,我们专门制作了这篇教程,教你如何在 Obsidian 的 Smart Connection 插件中无缝集成 Ollama 模型。希望这篇指南能为大家带来灵感和帮助,让你的笔记系统更加智能高效! ## 本地下载 Ollama 并运行模型 ### 安装 Ollama #### macOS