首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏小陈运维

    使用Ollama部署deepseek大模型

    使用Ollama部署deepseek大模型 前置条件 使用英伟达显卡下载cuda驱动 https://developer.nvidia.com/cuda-downloads Ollama Ollama ://ollama.com/install.sh | sh 当然Ollama不只是可以启动deepseek模型,也可以启动他的模型 https://ollama.com/search # 模型的安装命令 4.7G ollama run deepseek-r1:7b # 8B Llama DeepSeek R1 # 所需空间大约 4.9G ollama run deepseek-r1:8b # 14B R1 # 所需空间大约 404G ollama run deepseek-r1:671b # Windows的环境变量监听 # OLLAMA_HOST 0.0.0.0 # 启动命令 ollama 在另一台服务器上,请使用以下命令: 连接到另一台服务器上的Ollama时,请将OLLAMA_BASE_URL更改为服务器的URL: docker run -d -p 3000:8080 -e OLLAMA_BASE_URL

    2.7K20编辑于 2025-02-04
  • 来自专栏.Net Core技术分享

    Ollama本地部署大模型总结

    今天计划对之前ollama系列做个回顾,从如何部署到API使用,整理到一篇内容中,提供给大家参考。 安装指南 第一步:安装ollama 我们可以从官网下载ollama,此步骤支持windows、mac、ubuntu操作系统,此处仅以windows作为演示。 打开ollama官网:https://ollama.com 点击download按钮进行下载,下载完成后点击安装。 ollama的集成。 在ollama中有很多嵌入模型供我们选择使用。

    4.9K11编辑于 2025-03-30
  • 来自专栏小陈运维

    使用Ollama部署deepseek大模型

    使用Ollama部署deepseek大模型前置条件使用英伟达显卡下载cuda驱动https://developer.nvidia.com/cuda-downloadsOllamaOllama 官方版: 所需空间大约 1.1Gollama run deepseek-r1:1.5b# 7B Qwen DeepSeek R1# 所需空间大约 4.7Gollama run deepseek-r1:7b# 8B Llama DeepSeek R1# 所需空间大约 4.9Gollama run deepseek-r1:8b# 14B Qwen DeepSeek R1# 所需空间大约 9Gollama run deepseek-r1 在另一台服务器上,请使用以下命令:连接到另一台服务器上的Ollama时,请将OLLAMA_BASE_URL更改为服务器的URL:docker run -d -p 3000:8080 -e OLLAMA_BASE_URL 和Ollama,确保您可以快速启动一切。

    3.4K12编辑于 2025-01-26
  • 来自专栏机器学习

    OpenCloudOS部署OpenClaw配置本地Ollama

    上一篇内容我们在OpenCloudOS部署好了OpenClaw,但是还没有配置它的LLM,今天我们在艾克斯开发板上使用Ollama部署一个小模型。 Ollama安装通过ssh登录我们的设备输入curl-fsSLhttps://ollama.com/install.sh|sh进行下载。输入密码后等待安装完成。完成安装。 添加ollama的模型我们在ollama的官网可以看到,它们已经可以很方便的和OpenClaw进行对接了,因此我们按照官网的提示进行配置看看是否可行。 --eGDEsRIwEa2-a5YEyG-_T-n4pRF9XfiAnn5S8XlAbkEJ9oO_b-yM1pKn4-lT7kQC2P1ZRp9PtbKpeSVZ83feXXFwVkRO2-ijkthHMywiVo4i6KTAD8CbKETOZ8lY0xNZ0Qyy2nLjxOsFWk35SEibcLxDADDlILR0tY9ugVPMcdvDrLTXdSBqpqWdhKAMR8dFJ1J8lK6AS0IKJ-r8 _5hQTw92aAcVs8FyTtsuFQ8lonV4QaHcWMWgbBja8A6M&q-sign-algorithm=sha1&q-ak=AKID0t8RO6HmjlKO2E33zEnACKH1UmKLnBn

    9.6K01编辑于 2026-02-12
  • 来自专栏陈冠男的游戏人生

    使用ollama本地部署开源大模型

    chatGPT 刚出来没多久的时候,openai 时不时的限制使用频率,当时我想要是能本地部署一个大模型,无限制的使用该多好哇。 后来有很多团队/公司陆陆续续在 github 开源了他们自己训练的大模型,但是部署使用的操作门槛比较高,曾经试图部署过一个,报了几个错也没时间折腾就放弃了 前几天我发现了一个叫 ollama 的项目,根据介绍 ollama/ollama/releases 安装好之后直接在命令行执行ollama run llama2就会自动去下载并运行 llama2 这个模型,下载甚至不需要挂代理,很舒适: 等模型下载结束后会自动进入命令行的交互模式 ,此时就已经部署结束了 可以在:https://ollama.com/library 找到更多的模型 但是在命令行中直接交互里很多格式解析不出来,看起来怪怪的,可以使用 chatbot-ollama 这个项目部署一个 webUI,这样就可以在聊天框里面调用模型对话了,项目地址: https://github.com/ivanfioravanti/chatbot-ollama 这个项目部署起来也很简单,只要电脑上装有

    3.1K20编辑于 2024-03-05
  • 来自专栏后台技术汇

    Ollama是什么?安装部署指南原创

    前言此前写过2篇关于大模型思考的文章:《浅谈大模型时代的后台技术发展》、《AGI 时代的破局之道 》;对于大模型的本地部署和使用,下面我们了解一下。Ollama是什么? 一个本地部署运行大模型的工具,一行命令一键启动,支持linux、windows和mac操作系统的安装。Ollama支撑哪些大模型? 访问:https://ollama.com/library,列表下的大模型,它都支持。Ollama运行大模型的配置? Ollama只是工具,部署不同的大模型,都对我们本地环境有不同的配置要求(内存大小、CPU、GPU等等),下面举例子:Model(大模型)Parameters(参数)Size(体积)Download(运行指令 有的,仓库地址:https://github.com/ollama-ui/ollama-ui安装完成之后,访问:http://localhost:8000/?

    1.5K10编辑于 2024-09-21
  • 来自专栏实战docker

    Mac环境下ollama部署和体验

    / 非常简洁 本篇概览 作为入门操作的笔记,本篇记录了部署和简单体验ollama的过程,并且通过docker部署了web-ui,尝试通过页面使用大模型 本次操作的环境如下 电脑:macbook pro Size 下载命令 Llama 3 8B 4.7GB ollama run llama3 Llama 3 70B 40GB ollama run llama3:70b Phi-3 3.8B 2.3GB ollama run llama2-uncensored LLaVA 7B 4.5GB ollama run llava Gemma 2B 1.4GB ollama run gemma:2b Gemma 7B 4.8GB ollama run gemma:7b Solar 10.7B 6.1GB ollama run solar 另外需要注意的是本地内存是否充足,7B参数的模型需要8G内存,13B需要 16G内存,33B需要32G内存 运行8B的Llama3 我的mac笔记本内存16G,所以打算运行8B的Llama3,命令如下 ollama run llama3 第一次运行,因为没有模型文件,所以需要下载

    3.7K01编辑于 2024-05-26
  • 来自专栏Python与算法之美

    Ollama 本地CPU部署开源大模型

    Ollama可以在本地CPU非常方便地部署许多开源的大模型。 如 Facebook的llama3, 谷歌的gemma, 微软的phi3,阿里的qwen2 等模型。 本文将按照如下顺序介绍Ollama的使用方法~ ⚫️ 下载安装Ollama ⚫️ 命令行交互 ⚫️ python接口交互 ⚫️ jupyter魔法命令交互 一,下载安装 Ollama 可以从官网下载Ollama ollama run qwen2 #跑qwen2模型,如果本地没有,会先下载 ollama pull llama3 #下载llama3模型到本地 ollama list #查看本地有哪些模型可用 ollama rm #删除本地的某个模型 ollama help #获取帮助 ! ollama help Large language model runner Usage: ollama [flags] ollama [command] Available Commands

    3.8K11编辑于 2024-06-26
  • 来自专栏软件测试学习

    Ollama搭配DeepSeek,本地部署全攻略

    在人工智能领域,大型语言模型(LLMs)正变得越来越普及,而将这些模型部署到本地设备上,不仅可以提高数据隐私性,还能降低对网络的依赖。 一、Ollama 简介 Ollama 是一个开源的本地大模型部署工具,旨在让用户能够在个人电脑上运行各种开源大型语言模型(如 Llama、DeepSeek 等)。 通过 Ollama,开发者、研究者和爱好者可以快速部署私有化 AI 应用,无需依赖云端服务,同时享受高效、安全的本地 AI 体验。 二、安装 Ollama Windows 系统安装 访问 Ollama 官网:https://ollama.com,下载 Windows 版本的安装程序(ollama-windows.msi)。 (二)通过Ollama REST API调用 Ollama 提供 HTTP API,可以用于开发。

    7.4K10编辑于 2025-02-18
  • 来自专栏AI大流行时代

    Ollama系列:轻松3步本地部署deepseek

    本文主要介绍如何通过ollama快速部署deepseek、qwq、llama3、gemma3等大模型,网速好的小伙伴10分钟就能搞定。让你摆脱GPU焦虑,在普通电脑上面玩转大模型。 ollama常用的指令命令描述ollama serve启动 Ollamaollama create从 Modelfile 创建模型ollama show显示模型信息ollama run运行模型ollama stop停止正在运行的模型ollama pull从注册表中拉取模型ollama push将模型推送到注册表ollama list列出所有模型ollama ps列出正在运行的模型ollama cp复制模型 ollama rm删除模型ollama help显示任意命令的帮助信息标志描述-h, --help显示 Ollama 的帮助信息-v, --version显示版本信息获取更多模型在ollama官网,有非常多的开源模型供我们选择 总结本文介绍了如何使用ollama本地部署DeepSeek等大模型,通过干货分享了ollama常用的指令,以及如何获取更多大模型。但是我们目前仍然只是在命令行使用大模型,非常的不友好。

    1K10编辑于 2025-03-15
  • 来自专栏Linux相关

    Ollama部署 02】Linux本地化部署及SpringBoot2.X集成Ollamaollama-linux-amd64.tgz最新版本 0.6.2)

    安装资源分享:百度网盘链接: https://pan.baidu.com/s/17qK0Nx73bFOsicLgLmA8-A? .exe(实现客户端操作)1.本地部署1.1 软件安装Ollama 官网1.1.1 脚本安装curl -fsSL https://ollama.com/install.sh | sh脚本安装默认路径是 下载:# 使用后台下载nohup curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz 也可以设置 Ollama 的环境变量 OLLAMA_HOST=0.0.0.0 监听所有可用的网络接口,从而允许外部网络访问:export OLLAMA_HOST=0.0.0.0:11434nohup . style="color:rgb(190, 184, 176);background-color:rgb(31, 35, 41);">最低 JDK 要求为 17由于项目使用的依然是 JDK8

    3K10编辑于 2025-08-22
  • 除了ollama还有哪些模型部署方式?多样化模型部署方式

    在人工智能的浪潮中,模型部署是释放其强大能力的关键一环。大家都知道ollama,它在模型部署领域有一定知名度,操作相对简单,受到不少人的青睐。 但其实,模型部署的世界丰富多样,今天要给大家介绍一款工具,帮你轻松部署。对于很多没有专业编程知识的朋友来说,模型部署就像一座难以逾越的大山。 ③体验模型当部署完成,页面下方会显示“立即体验”按钮,点击后,直接进入到AI对话界面,软件支持切换多种智能问答模型,如deepseek满血版、豆包、文心一言等。 除了DS本地部署大师,还有像基于Hugging Face的Transformers库部署方式,它集成众多预训练模型和推理管道,适合有一定编程基础和机器学习知识的人。 不同的模型部署方式各有优劣,大家可以根据自身需求、技术水平和硬件条件综合选择。

    64710编辑于 2025-09-17
  • 来自专栏小胡的技术分享

    玩转deepseek本地部署ollama融合其他大模型

    引言部署完成本地版本的deepseek后很多兄弟们想去接入其他厂商的大模型进行微调和测试下面我就用宝塔Linux面板的快速搭建来示范如何接入大模型。 正文1.安装宝塔面板1.1在应用大模型前需要先安装一下宝塔面板——面板后台docker——“AI大模型”选项1.2来到“AI大模型”选项界面找到“DeepSeek-R1”选项注意:只有这个可以一键完成部署和拉去镜像哈

    90310编辑于 2025-02-12
  • 来自专栏AI智能体从入门到实践

    智能体搭建:DeepSeek的Ollama部署FastAPI封装调用

    ​前言: DeepSeek的横空出世引爆了AI大模型的势如破竹之势,在深度进入AI领域之前,对DeepSeek有个初步的了解和使用体验也至关重要,本文将结合Ollama实现本地化部署并生成开放接口,经由 ; ​6.将整个文件夹直接剪切到新的路径,如D:\AIWorld\Ollama 7.路径迁移后需修改环境变量配置,打开环境变量 8.依次打开【环境变量】中的【Path】变量,直接在旧的配置上编辑或增加新的路径 ; 9.安装的路径配置完毕,还需新建或者修改系统变量中的OLLAMA_MODELS变量,将变量值改为目标路径 至此,Ollama安装路径迁移完毕,重新运行ollama.exe即可启动程序; 二、Ollama : import requests # 调用ollama,指定模型和本地部署后api地址 def query_ollama(prompt, model="deepseek-r1:1.5b"): ("你好,你是什么大模型,请隆重介绍一下自己", stream=True) 当本地的模型部署完毕后,可以使用FastAPI进行封装后提供给外部调用,主要注意接口地址和端口,以下配置路径没有特别限制,可自定义调整

    1.5K43编辑于 2025-10-24
  • 来自专栏Rainbond开源「容器云平台」

    K8S 部署 Deepseek 要 3 天?别逗了!Ollama+GPU Operator 1 小时搞定

    - **GPU Operator**:一站式部署,显卡驱动安装零干预、容器运行时统一管理、深度集成 K8S。 这套组合对开发者和企业来说,意味着效率与安全的双重升级:开发者无需处理模型环境和集群配置,Ollama+Rainbond 让部署从 “写代码” 变成 “点鼠标”,专注业务逻辑;企业则实现数据本地化,通过 ## 部署 Ollama ### 1. 通过 Rainbond 可视化界面安装 Ollama 登录后点击创建应用,选择从应用市场创建,在开源应用商店搜索关键词 `ollama` 并点击安装 ! [](https://static.goodrain.com/wechat/local-deploy-deepseek-in-k8s/1.png) Rainbond 会自动拉取 Ollama 镜像并部署 [](https://static.goodrain.com/wechat/local-deploy-deepseek-in-k8s/7.png) 最后 通过 Ollama、RKE2、Rainbond

    1.1K10编辑于 2025-04-17
  • 来自专栏AI大模型

    别被 “一键部署” 骗了!使用Ollama本地部署DeepSeek 避坑指南

    最近最火的莫过于DeepSeek,现在网上关于 AI 模型部署的文章一抓一大把,动不动就是 “一键部署,轻松上手”、“30 分钟搭好一个本地能跑起来的大模型”。 Ollama 是什么 Ollama 则是咱们搭建模型的得力助手,它就像是一个智能的建筑工人,能够帮助我们快速、轻松地部署各种大型语言模型。 ://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux|g' ollama_install.sh 3、替换后增加可执行权限 chmod 要是你对 Docker 部署轻车熟路,或者懂点代码,那完全可以参考相关教程手动安装,感受一把技术操作的乐趣。 如果你就想简单点,下载个客户端,用鼠标点点就能轻松上手,那选 chatbox 就对啦。 接下来在chatbox 中设置Ollama 的地址即可。 通过以上几步,我们就可以使用Ollama 在本地部署DeepSeek大模型了。

    3.8K10编辑于 2025-04-04
  • DeepSeek实践-5分钟快速腾讯云部Ollama部署本地部署

    部署DeepSeek步骤 1、安装Ollama Ollama 是一款功能强大的开源工具,专为在本地运行、部署和管理大型语言模型(LLMs)而设计。 执行安装命令: 在终端中输入以下命令并回车: curl -fsSL https://ollama.com/install.sh | sh 2、部署DeepSeek 借助 Ollama,我们可以轻松部署 第二步:部署DeepSeek模型 DeepSeek 提供了多种参数版本,我们推荐: 普通用户: 选择 8B 版本,适用于日常对话、写作等场景。 复制对应版本的安装命令,并在终端中运行: ollama run deepseek-r1:8b (如果您选择 16B 版本,将 8b 替换为 16b) 首次运行时,系统会自动下载约 5GB 的模型文件,请耐心等待 在模型设置中选择: API 类型:Ollama API 模型名称:deepseek-r1:8b 点击“检查连接”,如果状态正常,即可开始使用。 3.

    2.5K21编辑于 2025-03-19
  • 来自专栏Linux相关

    Ollama部署 04】Linux环境离线安装Ollama及模型文件(sha256缓存与gguf模型文件)

    @TOC1.环境说明有些时候,需要离线进行本地大模型的部署,此次为保证环境离线,我使用的是笔记本电脑安装的虚拟机(系统是openEuler),安装的整个流程笔记本电脑都是断网状态。 2.安装软件首先要安装 Ollama,下载 ollama-linux-amd64.tgz后解压即可使用,完全可以离线。 vnd.docker.container.image.v1+json", "size": 487 }, "layers": [ { "digest": "sha256:aabd4debf0c8f08881923f2c25fc0fdeed24435271c2b3e92c4af36704040dbc 387 }, { "digest": "sha256:6e4c38e1172f42fdbff13edf9a7a017679fb82b0fde415a3e8b3c31c6ed4a4e4 /ollama lsNAME ID SIZE MODIFIEDdeepseek-r1:1.5b a42b25d8c10a

    4.5K11编辑于 2025-08-23
  • 来自专栏架构师成长之路

    大模型llm:Ollama部署llama3学习入门llm

    二、Ollama安装 1、Ollama简介 Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。 Ollama 设计为一个框架,旨在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。 您将会看到 Ollama 的 Web 界面,通过它您可以开始构建、训练和部署深度学习模型。 2、源码部署: 安装Node.js 支持Ollama的WebUI非常多,笔者体验过热度第一的那个WebUI(github.com/open-webui/…%EF%BC%8C%E9%9C%80%E8%A6% 打开终端,执行以下命令部署WebUI: git clone https://github.com/ollama-webui/ollama-webui-lite.git cd ollama-webui-lite

    7.1K00编辑于 2024-05-24
  • 在 Docker 中运行 Ollama:从开发环境到生产部署

    在Docker中运行Ollama:从开发环境到生产部署本地运行大模型从未如此简单。Docker化的Ollama让你的AI基础设施可复现、可扩展。为什么选择Docker部署Ollama? Docker化部署有以下优势:优势说明可复现性开发、测试、生产环境完全一致隔离性不污染宿主机,依赖管理清晰可扩展性轻松部署多实例,配合负载均衡GPU管理统一配置,跨主机一致快速开始:CPU模式最简单的启动方式 :resources:reservations:devices:-driver:nvidiacount:allcapabilities:[gpu]limits:cpus:"8"memory:32Grestart :配置项说明127.0.0.1:11434:11434仅绑定本地,需通过反向代理暴露cpus:"8"限制CPU使用memory:32G限制内存使用日志轮转防止磁盘被日志撑满模型持久化与预加载模型文件动辄几个 的部署变得简单可控。

    19110编辑于 2026-04-27
领券