首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏IT创事记

    去卖AI服务器

    这个计划帮助前沿AI技术落地,也帮助传统渠道在新业务爆发前“未雨绸缪”。 “你现在不一定真的会卖元脑的解决方案,但你至少要把AI服务器卖出去。”王峰对渠道伙伴说。 类似这样的小突破,在2019年浪潮AI服务器的销售中,总共为浪潮贡献了过亿元的业绩——在这个将AI服务器交给分销渠道销售的试点之年,浪潮原定的目标不过只有区区的4千万元。 无论4千万,还是1个亿,对于浪潮的AI服务器销售而言,它们显然仍微不足道。 这家2019年上半年AI服务器出货量全球第一,占据中国AI服务器市场50.2%市场份额的服务器巨头真正看重的,是它传统的分销体系能否用今天的小突破,去抓住明天AI的大未来。 王峰说,浪潮能把AI服务器做到全球领先,其实早年也只是先走了半步而已。 IDC综合数据显示,产业AI化给市场带来的空间增长迅猛。

    1.5K30编辑于 2022-06-28
  • 来自专栏个人技术

    h5ai服务器目录

    在前几天,我帮人安装h5ai这个东西,结果直接踩坑,装了一个下午,打算自己也装一个,顺便写一下教程 最终效果演示: https://larsjung.de/h5ai/demo/ 服务器 服务器这里推荐在阿里云购买或者是 Vultr 注意:如果阿里云国内服务器需要备案 购买Vultr更加方便哦! 答:我喜欢(主要是方便后期美化一下) 请先连接你的服务器(不连接咱们怎么安装?) 请大家按照这个网站的https://moecat.cn/教程来安装宝塔面板,然后再回到教程 我这里用的是centos7服务器,如果你也是的话,直接跟着我安装宝塔面板就可以了 Bt_Panel_Pro 脚本 文件 在宝塔面板中左边找到文件 进入/www/wwwroot/你的域名这个文件夹下 然后点击远程下载 输入: https://release.larsjung.de/h5ai/h5ai-0.29.2.zip

    1.5K10发布于 2020-04-11
  • 来自专栏JadePeng的技术博客

    分布式AI集群服务器架构

    要训练一个chatgpt这样的大模型,需要分布式AI集群的支持。 深度学习迎来大模型 Open AI的GPT-3模型,使用512张V100,需要训练7个月。 参数服务器 分布式训练时,需要更新模型参数,通常是用参数服务器来承担,工作包含: 计算损失和梯度 梯度聚合 参数更新并参数重新广播 有下面几种模式,当前大模型参数量过大,单个GPU不能承载,通常采用参数服务器分布在所有 通过该算法,对于3亿(0.3B)参数的语言模型每秒处理的样本数量与同时进行同步训练的 GPU 数量呈线性关系 总结 大规模分布式训练中主要使用参数服务器架构模式(PS),参数服务器分布在多个 GPU

    2.2K50编辑于 2023-02-16
  • 来自专栏猫窜游戏

    使用GPU云服务器实现AI绘画

    业务场景 AI绘画是近期比较热门的一个应用,其功能主要为可以把用户输入的一段或几段文字,使用训练好的模型来自动生成一幅美丽的画作。 本文以GPU云服务器,型号:GN8为例,实现AI绘画。 相关概念 AI作画已经是一个很早的概念了,简单的说就是利用文本编辑器和图像编辑器来实现自然语言的处理和图像的识别,通过不断的扩散(随机)迭代,再根据已经训练好的模型的权重(weight)评估,最终达到图文一致 只要能输入恰当的描述,AI就能够生成令人意想不到效果的插画。 ,来实现“本地”的AI作画。 建立FTP连接(可选),参照Windows 系统通过 FTP 上传文件到云服务器:https://cloud.tencent.com/document/product/213/2132 在GPU云服务器

    23.9K22编辑于 2022-05-24
  • 来自专栏科技云报道

    AI入侵服务器,计算市场正在重新洗牌

    今天我们就来聊聊AI服务器,是新事物,是时代的真需求,还是厂商用来宣传的噱头? AI服务器就是服务器+GPU? 什么是AI服务器? 由于AI服务器技术发展尚处于初期,业界并没有统一的规定,很多人甚至认为AI服务器就是在传统的服务器上加上个GPU,就可以称为AI服务器。 其实,AI服务器并不是在传统服务器上加个GPU这么简单。 所以对于AI服务器来说,决定AI服务器的并不是AI服务器里面的是CPU+GPU还是CPU+TPU,而是在市场上这些服务器能够满足哪些特定应用厂商的需求。 未来AI服务器的需求会很大,那么AI服务器是否需要超高的计算力呢?目前来说,驱动AI发展少不了高性能服务器的支撑。计算、数据和算法是AI时代来临的三个支柱。 而AI离不开计算力,计算力是AI的第一个关键基石,所以要想AI服务器AI服务器就需要更好的计算力。

    1.3K20编辑于 2022-04-15
  • 来自专栏存储公众号:王知鱼

    2025:生成式AI如何重塑服务器市场

    AI服务器市场与技术升级:2024-2025年AI服务器市场将大幅增长,NVIDIA和AMD在高端GPU及先进封装技术(如CoWoS、HBM)上的投入推动出货量,但如何协调需求增长与技术产能扩展是关键挑战 全球服务器出货量与AI服务器比例变化预测 • 全球服务器出货量预计在2024年仅增长约1.9%,预算持续向AI服务器倾斜。 2022-2027年AI服务器市场增长预测 • 2022-2024 AI服务器需求 主要由云服务提供商(CSPs)的高端需求驱动。 • 到2027年,AI服务器预计将占全球年度服务器出货量的约19%。 - AI服务器市场 在2023年至2024年期间预计将经历快速增长,年均增速约为38%。 - 全球AI服务器出货量 预计在2022年至2027年期间将以27.2%的年均复合增长率(CAGR) 增长。 - 到2027年,AI服务器预计将占全球年度服务器出货量的**约19%**。

    70510编辑于 2025-02-11
  • 来自专栏量子位

    联手寒武纪发布AI推理服务器,推出AI管理平台,中科曙光也All in AI

    一方面是产品,曙光此次正式推出“全浸没式液冷AI训练专用服务器”。这是针对AI服务器集群存在的高耗能、空间部署密度低、高噪音等痛点给出的产品方案。 该服务器在效能上,可以实现相较节电40%的效果,同时可以消除对数据中心运维环境和科研办公室噪音污染等困扰。 此外,曙光还联手中科院“兄弟公司”寒武纪,研发推出“全球首款基于寒武纪芯片的AI推理专用服务器”:Phaneron。 △ 基于寒武纪芯片的AI推理专用服务器Phaneron 相比普通用于推理的通用CPU服务器,可以实现几十甚至上百倍性能提升,可以让海量视频语音数据的持续实时分析成为可能。 此外,面向AI的统一编程优化框架,也是“SothisAI”的核心思路,通过AI统一异构编程模型、AI计算力动态实时分配算法、AI基础性能函数等,快速响应和释放AI所需的计算力。

    2.2K90发布于 2018-03-26
  • 来自专栏科技云报道

    大模型的火烧到了AI服务器

    表现最为激烈的,就是AI服务器市场。大模型带来的算力需求,直接引发了一波AI服务器抢购潮和涨价潮。 在这样的背景下,AI服务器厂商扩产的消息也层出不穷。 鸿海集团旗下负责AI服务器业务的鸿佰科技就曾被曝出规划新增五到六条生产线,以应对AI服务器客户要求的消息。 从1月份开始,以浪潮信息、中际旭创、工业富联为首的AI服务器概念股扶摇直上,多次涨停,甚至连长期亏损的寒武纪,股价都一路飘红。 爆火的“AI服务器AI服务器是什么? AI服务器 国内市场格局 AI服务器市场在过去的几年里一直在持续增长,到现今,在大模型的加持下,AI服务器市场盘子越来越大。 其实这也与说明一点,传统CPU服务器行业受到AI的影响,市场逐渐萎靡。未来以AI服务器为代表的异构服务器或是大势所趋。

    48930编辑于 2023-08-10
  • MariaDB收购SkySQL增强AI与无服务器能力

    MariaDB收购前子公司SkySQL以增强代理AI和无服务器能力私有数据库公司MariaDB plc似乎改变了其对SkySQL Inc.未来的看法,决定重新收购这家前子公司。 SkySQL是功能强大的无服务器云托管数据库即服务平台的开创者,该平台融合了人工智能能力。SkySQL最初作为MariaDB的子公司成立,于2023年12月成为独立实体。 MariaDB Cloud提供对完全配置和托管数据库的访问,该数据库可部署在某中心、某机构和某云服务提供商上,同时还提供无服务器模式,使开发人员能够立即开始使用该服务。 SkySQL还拥有一些实用的代理AI功能,形式为"SkyAI代理",使开发人员能够使用简单的英语命令而不是基于结构化查询语言的查询来与其数据交互。 此外,这些代理与SkySQL的内置向量数据库集成,因此开发人员可以更轻松地将非结构化数据用于AI。所有这些功能现在都将在MariaDB Cloud中提供。

    19110编辑于 2025-10-06
  • 来自专栏IT创事记

    浪潮AI服务器创全球权威MLPerf基准测试18项AI性能纪录

    美国东部时间10月21日,全球备受瞩目的权威AI基准测试MLPerf公布今年的推理测试榜单,浪潮AI服务器NF5488A5一举创造18项性能纪录,在数据中心AI推理性能上遥遥领先其他厂商产品。 浪潮NF5488A5获数据中心AI性能绝对优势 此次浪潮NF5488A5一举创造18项MLPerf推理性能纪录,成为创纪录最多的AI服务器。 浪潮NF5488A5创造18项MLPerf推理性能纪录 性能大幅提升3倍,全栈AI能力优势凸显 在此次基准测试中,浪潮AI服务器NF5488A5在开放优化(Open)和固定任务(Closed)的ResNet50 高速互联的AI服务器。 各服务器MLPerf AI推理性能对比(以浪潮NF5488A5为基准,越高越好) 浪潮是全球领先的AI计算领导厂商,其AI服务器在中国的市场份额已连续三年保持在50%以上。

    50520编辑于 2022-08-30
  • 服务器架构简化AI代理部署与扩展

    Tensorlake Inc.表示,其推出的全新无服务器基础设施平台让希望设计、构建和运行人工智能代理的组织的工作变得更加轻松。该平台为自主系统的扩展提供了现成的基础。 这家初创公司正试图解决企业在将自主AI代理集成到业务工作流程中时几乎不可避免的“基础设施蔓延”问题。 Tensorlake希望帮助组织避免所有这些麻烦,将多个基础设施组件替换为一个一体化的代理平台,该平台可将非结构化数据转换为可用于AI的生产就绪输入。 Choudhury表示,该公司的基础设施可以比作一个“内置电池”的平台,用于构建代理式AI工作流。 “今年是AI框架之战,当然,初创公司正在做一些最具创新性的事情,Tensorlake的首次亮相非常强劲,”该分析师说。

    8810编辑于 2026-04-15
  • 服务器架构简化AI代理部署与扩展

    Tensorlake公司表示,其新推出的无服务器基础设施平台让希望设计、构建和运行人工智能代理的组织的生活更加轻松,该平台为自主系统的扩展提供了现成的基础。 这家初创公司正试图解决企业在尝试将自主AI代理集成到业务流程中时几乎不可避免的、铺天盖地的“基础设施碎片化”问题。 Tensorlake希望帮助组织避免所有这些麻烦,用一个一体化代理平台替代多个基础设施组件,该平台能将非结构化数据转换为AI可用的生产就绪输入。 Choudhury表示,该公司的基础设施可比作一个构建代理AI工作流的“功能齐全”平台。 “今年是AI框架之争,当然,一些最具创新性的事情是由初创公司完成的,Tensorlake的首次亮相非常强势,”该分析师说。

    10310编辑于 2026-04-04
  • 来自专栏jtti

    jtti GPU服务器是如何执行AI计算的

      GPU服务器在执行AI计算时,发挥着至关重要的作用。这类服务器通常配备高性能的图形处理器(GPU),这些GPU专为处理大规模并行计算任务而设计,如深度学习、机器学习等。 在AI计算中,GPU服务器以其高效的并行处理能力和内存带宽,为复杂的神经网络模型提供了强大的计算支持。   一旦数据加载完成,服务器会根据所选的AI框架(如TensorFlow、PyTorch等)进行模型训练和推理。   总之,GPU服务器可以在短时间内完成推理服务器模型在执行训练和AI计算时发挥着任务,为各种实际应用提供准确的预测和分类结果。 随着AI技术的不断发展和应用领域的不断扩展,GPU服务器将在未来发挥更加重要的作用。

    67310编辑于 2024-04-24
  • 来自专栏芯智讯

    壁仞国产GPU芯片+浪潮AI服务器,打破全球权威AI评测性能纪录!

    9月9日,全球权威AI基准评测MLPerf™ V2.1推理最新评测成绩公布,浪潮AI服务器成功搭载国产GPU芯片厂商壁仞科技自研的高端通用GPU,在BERT和ResNet50两项重要任务中取得了8卡和4 在此次评测中,壁仞科技采用了其最新发布的自研高端通用GPU芯片BR104,浪潮通过AI服务器NF5468M6实现了对8颗和4颗BR104的成功搭载和高效运行。 依托浪潮AI服务器极致优化的算力平台,通过壁仞科技领先的GPU芯片硬件架构与BIRENSUPA软件栈的创新设计,双方联合将AI计算性能发挥到极致,在数据中心固定赛道的自然语言处理(BERT)和图像识别( 浪潮信息是全球领先的AI计算厂商,AI服务器市场份额全球第一,连续五年中国市场份额超过50%。浪潮信息致力于通过AI计算平台、资源平台和算法平台的全栈创新,并通过元脑生态携手领先伙伴加速数实相融。 目前,MLCommons每年组织2次MLPerf™ AI训练性能测试和2次MLPerf™ AI推理性能测试,以便快速跟进迅速变化的计算需求和计算性能提升,为用户衡量设备性能提供权威有效的数据指导。

    1.3K20编辑于 2022-09-20
  • 来自专栏梦溪博客

    h5ai轻便服务器目录搭建详细教程(云服务器详细配置)

    等 WEB 服务器。 H5ai 是一款外观优雅且非常实用的目录列表程序,适合用来做个人网盘。最开始了解 h5ai 是看到别人通过 h5ai 分享文件,第一眼就被它简单直接的功能和简约大方的的界面吸引了。 wget https://release.larsjung.de/h5ai/h5ai-0.29.2.zip && unzip h5ai-0.29.2.zip 注意查看文件结构,正确的应是: DOC_ROOT ② apache 配置 将 /_h5ai/public/index.php 添加到 web 服务器配置文件中默认首页文件列表代码的最后位置 vim httpd.conf #可以用 locate httpd.conf 五、云服务器安装配置 第四步:配置 h5ai提供几项个性化配置,修改配置文件即可实现。

    11K20发布于 2021-08-09
  • 来自专栏个人教程

    使用EdgeOne边缘函数搭建无服务器AI绘图站

    AI绘画需要强大的数据和算力支持,只有经过良好训练的算法和数据集才能创造出卓越作品。然而,这对于想探索AI绘画的人来说门槛较高。 以前自己用sd搭建费时费钱,折腾环境和锻炼的耗时不说,高峰期任务量大服务器性能不足、低谷期没任务服务器在那干费钱。 现在好多了,直接可以不用GPU服务器一台轻量搞定,不管高峰低谷出图时间都很稳定,而且灵活性增加成本大大降低。 结合EdgeOne边缘函数,通过靠近用户的边缘节点运行AI绘图调用程序,不仅省去了服务器,还可提升访问速度。 开通AI绘画进入AI绘画控制台,点击立即开通。 除了AI绘图,腾讯云还有不少AI产品提供免费试用,后面应该会把这一系列产品做完。

    57.8K93编辑于 2023-10-24
  • 来自专栏Java项目实战

    【玩转 GPU】助力AI热潮,腾讯云服务器助你事半功倍!

    而腾讯云服务器提供的GPU产品,则为用户提供了弹性、高效的计算服务。 GPU开发实践已经逐渐成为了众多AI工程师的必备技能,其中包括了许多能够提升用户体验的应用场景,比如AI绘画、AI语音合成以及开源语言模型部署等等。 首先,AI绘画在艺术领域中已经得到了广泛应用。 GPU已经成为了AI开发的重要工具,而腾讯云服务器提供的GPU产品能够为企业和机构带来弹性、高效的计算服务,协助AI应用落地。 无论是AI绘画、AI语音合成,还是开源语言模型部署等等,GPU在AI应用中都扮演着至关重要的角色,其优势无疑将进一步推动AI技术的发展。 开启云服务器AI绘画 1.点击控制台 图片 因为我已经开通云产品,大家可以自行开通,找到云产品 图片 选择离你最近的节点 图片 选择使用场景支持搭建网站,搭建环境,数据备份,服务器迁移,通用场景等等 图片

    1.3K30编辑于 2023-06-27
  • 来自专栏AI技术体系搭建过程

    AIGC10: AI转文服务器的搭建过程记录

    背景 飓风袭击亚特兰大,我们的转文服务器放在这个城市,担心断电或者断网。所以需要有一个备用的服务器来处理语音数据。 计划是在云计算厂商相对安全,距离又近的地方买一个服务器,重新搭建,来处理语音转文,左右声道拆分和角色识别。 然后是做完之后,需要通过配置能切换,同时保证功能正常。 目标 购买一个最低成本的带GPU的服务器,在阿里云上。做备用,在极端天气情况下使用备用的服务器。极端天气过后,切换到自建IDC的服务器。兼顾成本和高可用。 下面是操作步骤。

    36400编辑于 2025-07-01
  • 来自专栏芯智讯

    2024年全球AI服务器将同比增长20%

    但是,在服务器方面,受益于新平台的推出,加上人工智能市场的需求增长,预计将早于 PC 产业复苏,在 2023 年下半年开始就恢复出货量的增长。 报告指出,根据研究调查机构 Omdia 的分析,服务器的出货量在 2023 年出现较 2022 年下滑 3.5% 的情况之后,到了 2024 年、 2025 年将会出现 12% 与 7% 的增长,其中人工智能服务器出货量的同比增幅将更是高达

    30830编辑于 2023-08-09
  • 来自专栏GPUS开发者

    使用 NVIDIA Triton 推理服务器简化边缘 AI 模型部署

    AI 机器学习 (ML) 和深度学习 (DL) 正在成为解决机器人、零售、医疗保健、工业等各个领域的各种计算问题的有效工具。对低延迟、实时响应和隐私的需求已经推动了在边缘运行 AI 应用程序。 但是,在边缘的应用程序和服务中部署 AI 模型对于基础设施和运营团队来说可能具有挑战性。各种框架、端到端延迟要求以及缺乏标准化实施等因素都可能使 AI 部署具有挑战性。 在这篇文章中,我们将探讨如何应对这些挑战并在边缘生产中部署 AI 模型。 典型的 AI 应用程序使用许多不同的模型。它增加了问题的规模以更新现场模型。 NVIDIA Triton 推理服务器是一款开源推理服务软件,可通过解决这些复杂问题来简化推理服务。 批处理推理请求有两种方式:客户端批处理和服务器批处理。NVIDIA Triton 通过将单个推理请求组合在一起来实现服务器批处理,以提高推理吞吐量。

    2.4K10发布于 2021-10-13
领券