自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(24)
  • 收藏
  • 关注

原创 报告下载丨华为:2025年鸿蒙智能体框架白皮书

该白皮书指出,全球数字技术智能化、泛在化变革之际,鸿蒙智能体是重大创新成果。它构建起 “以人为中心” 的操作系统新范式,借分布式架构与原子化服务,实现跨终端、场景的智能协同。通过开源 OpenHarmony,联合超 5000 家伙伴打造全球第三大智能终端生态圈,保障国家数字主权安全可控。其框架 HMAF 涵盖智能体全新交互,像系统级入口、小艺系统智能体入口等;升级智能体协议,定义交互规范;当下,超 800 万开发者投身鸿蒙生态开发,未来,它将催生 “智能体即服务” 商业模式,助力鸿蒙应用智能化升级。

2025-07-09 17:16:38 143

原创 报告下载丨艾瑞咨询:2025年中国AI眼镜行业研究报告

报告剖析中国 AI 眼镜行业。在技术层面,不断朝着更轻薄、续航更久、性能更强方向发展,提升用户佩戴舒适度与使用体验。从用户认知和购买行为看,年轻群体与科技爱好者接受度较高,他们更关注产品功能、佩戴舒适度与价格。但行业也面临技术瓶颈、价格较高、隐私安全等挑战,需企业通过技术创新、优化成本结构等方式应对,以推动 AI 眼镜市场进一步发展。免费完整版报告可至天罡智算官网(https://tiangangaitp.com/club/knowledge)下载,该平台还有其他报告可下载。

2025-07-09 16:24:21 198

原创 报告下载丨甲子光年:2025年AI产品用户需求调研报告:AI产品的用户类型细分与画像分析 原创 智能计算 智能计算研究

目标用户为愿且正在使用生成式 AI 产品的人群,工作场景使用占 57.8%。47.5% 的用户非常愿意使用 AI 产品,独立 APP、对话式 AI 助手等较受欢迎。用户分为四类:AI 工具用户(38%)认知略低,侧重生活场景与软件产品;AI 助手用户(48%)认知高,以工作场景为主;AI 原生用户(12%)工作生活兼顾,愿用软硬融合产品;AI 创生用户(2%)工作场景为主,接受价格高。此外,报告还揭示了用户在性别、年龄、学历、职业、收入与地域等方面的特征,助力企业精准把握市场。

2025-07-09 16:06:35 97

原创 报告下载丨2024向AI而行 共筑新质生产力——行业大模型调研报告

它深入剖析行业大模型,指出大模型存在专业性、泛化性和经济性 “不可能三角”,GPT 等通用大模型难以满足行业特定需求,所以行业大模型应运而生。行业大模型基于通用大模型再开发,是含模型与应用的定制化解决方案。当下,数字原生行业是应用先行者,传统行业中生产性服务业进展较快,重资产行业较慢。其应用场景呈现 “微笑曲线” 特征,研发、设计和营销、服务端落地快。免费完整版报告可至天罡智算官网(https://tiangangaitp.com/club/knowledge)下载,该平台还有其他报告可下载。

2025-07-09 15:41:13 147

原创 报告下载丨智能体技术和应用研究报告(2025年)

中国信通院发布的此报告极具价值。在发展概述方面,智能体作为人工智能高阶应用形态,能感知、决策、执行,正重塑创新生态,推动人工智能原生应用建设。关键技术上,它通过多模态交互等技术,破解大模型 “有脑无手” 困局,MCP、A2A 等通信协议降低系统集成复杂性。产业应用中,智能体从探索走向场景深耕,如制造业预测性维护、金融业实时风控等场景已验证其价值。免费完整版报告可至天罡智算官网(https://tiangangaitp.com/club/knowledge)下载,该平台还有其他报告可下载。

2025-07-09 14:47:40 174

原创 2025世界人工智能大会展望,重塑高效 GPU 算力供给方案

同期,7月25日下午,由天罡智算(https://www.tiangangaitp.com)主办的【人工智能与智算发展论坛】将率先登场,以“绿算领航・智序共生”为主题,直击“1元GPU的10倍价值突破”这一行业核心命题,作为大会的精彩前哨战,提前为业界带来深度洞察与前沿思维碰撞。更为关键的是,传统资源采购模式导致显著的资源利用率低下:斥资构建的算力基础设施在业务波谷期大量闲置,而突发的峰值计算需求却难以弹性满足,造成严重的资源浪费与业务响应迟滞。这一数据背后,正是"绿算"理念从概念走向落地的关键突破。

2025-07-09 13:44:57 812

原创 2025世界人工智能大会即将启幕,前沿思潮蓄势待发

同期,7月25日下午,由天罡智算(https://www.tiangangaitp.com)主办的【人工智能与智算发展论坛】将率先登场,以“绿算领航・智序共生”为主题,直击“1元GPU的10倍价值突破”这一行业核心命题,作为大会的精彩前哨战,提前为业界带来深度洞察与前沿思维碰撞。更为关键的是,传统的资源采购模式往往导致显著的资源利用率低下:斥资购置的 GPU 资源在非峰值时段大量闲置,而突发的计算需求却又难以得到及时满足,造成资源浪费与业务灵活性的双重损失。VC视角下的智算赛道投资逻辑有哪些新变化?

2025-07-09 13:13:21 570

原创 2025世界人工智能大会前瞻:「绿算领航・智序共生」人工智能与智算发展论坛

同期,7月25日下午,由天罡智算(https://www.tiangangaitp.com)主办的【人工智能与智算发展论坛】将率先登场,以“绿算领航・智序共生”为主题,直击“1元GPU的10倍价值突破”这一行业核心命题,作为大会的精彩前哨战,提前为业界带来深度洞察与前沿思维碰撞。当AI发展进入"算力即生产力"的新阶段,这场论坛不仅是技术交流的平台,更是企业突破成本瓶颈的战略转折点。用户只需为实际使用的资源付费,不使用资源时不付费,支持按秒计费,避免了传统算力租赁中的资源浪费。

2025-07-09 11:59:03 571

原创 英伟达5090显卡来了!我的4090是不是该扔了?看完这篇再决定!

我专门租了5090和4090做了对比测试(平台是天罡智算,https://tiangangaitp.com/gpu-market),还研究了现在谁在用5090搞事情。一句话:5090是站在4090肩膀上的“性能怪兽”,代表了未来方向。简单理解: 5090就像升级版的“超级跑车”,马力更大(算力)、油箱更大(显存)、还装了新引擎(FP4/DLSS4)。5090虽强,但4090远没到“淘汰”的地步!)完成注册和登录后,点击菜单“弹性GPU”,在弹性GPU的页面,就可以看到5090卡。4090真的“过时”了吗?

2025-07-03 15:32:53 693

原创 部署模型选5090还是4090?别听忽悠!这5个真相你必须知道——实测玩家说点大实话,不整虚的!

卡的详情,当前支持按照卡时计费,根据实际使用量,先使用后付费。在天罡智算的官网(https://tiangangaitp.com/gpu-market)完成注册和登录后,点击菜单“弹性GPU”,在弹性GPU的页面,就可以看到5090卡。冷静,理智,你永远不亏!看完你绝对清醒——该冲就冲,该省就省,绝不当冤大头!这5个真相你必须知道——实测玩家说点大实话,不整虚的!5090是“重卡”——拉货多(显存大)、跑得快(带宽高)、还省油(FP4)!比如 FLUX.1模型,开FP4显存从23GB→10GB,速度翻倍!

2025-07-03 15:26:06 667

原创 部署模型选5090还是4090?别纠结!看完这篇闭眼选——实测玩家说大实话,不绕弯子!

卡的详情,当前支持按照卡时计费,根据实际使用量,先使用后付费。在天罡智算的官网(https://tiangangaitp.com/gpu-market)完成注册和登录后,点击菜单“弹性GPU”,在弹性GPU的页面,就可以看到5090卡。老黄(英伟达)今年初扔出核弹卡RTX 5090,参数猛如虎!像DeepSeek-V3(只激活370亿参数),显存需求仍超24GB+高带宽!5090:开启FP4,显存占用从23GB→10GB,速度飙2倍!5090:1.8TB/s带宽+FP4加持,实时丝滑无压力!

2025-07-03 15:04:49 563

原创 别慌!5090显卡出了,但你的4090真不用急着换!听我掰扯掰扯

5090是站在4090肩膀上的“超级赛亚人”,代表了未来。在天罡智算的官网(https://tiangangaitp.com/gpu-market)完成注册和登录后,点击菜单“弹性GPU”,在弹性GPU的页面,就可以看到5090卡。),跟我的4090狠狠PK了一把,还扒了扒现在哪些大神在用5090搞事情。哎呦,最近可多人跑来问我:“哥,英伟达那个5090出来了!但4090本身也是顶级轿跑啊,市区高速照样嗖嗖的,完全没到进废车厂的时候!结论:4090依然是你的“黄金搭档”,够强够稳还省钱!

2025-07-03 14:55:25 815

原创 RTX 5090 vs RTX 4090 终极抉择指南:用原始数据终结选择困难

点击5090或4090卡的图片,在页面的右侧,会显示5090或4090卡的详情,当前支持按照卡时计费,根据实际使用量,先使用后付费。根据您的算力需求量,一个容器支持挂载1、2、4、8个5090或4090卡。在天罡智算的官网(https://tiangangaitp.com/gpu-market)完成注册和登录后,点击菜单“弹性GPU”,在弹性GPU的页面,就可以看到5090卡和4090卡。- 《GTA6》8K+光追:5090 90-120FPS VS 4090 30-40FPS。

2025-07-03 14:39:22 1663

原创 5090真比4090强多少?实测打脸!这5条真相让你清醒——不吹不黑,租卡实测,听劝省钱!

小编花真金白银租了卡(在天罡智算平台,搜https://tiangangaitp.com/gpu-market就能租),实测打脸营销号!卡的详情,当前支持按照卡时计费,根据实际使用量,先使用后付费。在天罡智算的官网(https://tiangangaitp.com/gpu-market)完成注册和登录后,点击菜单“弹性GPU”,在弹性GPU的页面,就可以看到5090卡。(DistilBERT微调:4090只要127秒,5090跪254秒!Flux模型生成:5090只要5秒,4090跪10秒!

2025-07-03 14:04:22 412

原创 5090 vs 4090 江湖对决!你的显卡该“退休”还是“再战三年”?——实测玩家吐血整理,不吹不黑!

我当裁判(自费租平台,叫天罡智算,https://tiangangaitp.com/gpu-market),让5090和4090现场掰头!卡的详情,当前支持按照卡时计费,根据实际使用量,先使用后付费。在天罡智算的官网(https://tiangangaitp.com/gpu-market)完成注册和登录后,点击菜单“弹性GPU”,在弹性GPU的页面,就可以看到5090卡。5090是“显卡江湖”的新盟主,但4090仍是镇派长老!卡的图片,在页面的右侧,会显示5090。省下的钱,吃顿海底捞,不比追新香?

2025-07-02 16:23:56 244

原创 5090 vs 4090 职场生存战!选错卡直接输掉年终奖

5090与前一代的4090相比,该如何选择?点击5090或4090卡的图片,在页面的右侧,会显示5090或4090卡的详情,当前支持按照卡时计费,根据实际使用量,先使用后付费。根据您的算力需求量,一个容器支持挂载1、2、4、8个5090或4090卡。在天罡智算的官网(https://tiangangaitp.com/gpu-market)完成注册和登录后,点击菜单“弹性GPU”,在弹性GPU的页面,就可以看到5090卡和4090卡。→ 结果:44.7秒 �� 4090的38.2秒(降速14.7%)

2025-07-02 15:30:54 540

原创 5090 vs 4090真实伤害报告!用原始数据扒光显卡底裤---实测表直接糊脸,不交智商税指南

5090与前一代的4090相比,该如何选择?点击5090或4090卡的图,在页面的右侧,会显示5090或4090卡的详情,当前支持按照卡时计费,根据实际使用量,先使用后付费。根据您的算力需求量,一个容器支持挂载1、2、4、8个5090或4090卡。在天罡智算的官网(https://tiangangaitp.com/gpu-market)完成注册和登录后,点击菜单“弹性GPU”,在弹性GPU的页面,就可以看到5090卡和4090卡。Llama-70B量化版:4090显存不足崩溃,5090流畅加载。

2025-07-02 12:22:15 567

原创 拒绝 “动口不动手”!DeepSeek 接入 MCP 后能做这些骚操作

DeepSeek已经支持了MCP,今天这篇文章,我就给大家介绍一下,在Cherry Studio客户端里面使用MCP服务,让DeepSeek不但只会“动口”,而且也会“动手”。通过这些例子,可以发现,MCP的确可以让大模型调用各种工具,解决了大模型“只能动嘴不能动手”的难题,扩展了大模型的能力,让大家距离拥有一个贴身的全能AI助手又近了一步。在对话界面的下方,点击“MCP服务器”的图标,然后点击“fetch”和“filesystem”这两个服务左侧的图标,选中这两个服务。

2025-06-04 16:21:59 718

原创 拒绝云存储风险!手把手教你用 DeepSeek 打造私有化知识库(含免费 API)

当文档被添加到知识库之后,文件会被切分为若干个片段,然后这些片段会交给嵌入模型进行处理,当使用DeepSeek进行问答的时候,会查询相关的文本片段,一并交给DeepSeek处理。另外,知识库的文档如果在云上,对于数据比较敏感的人和公司来说可能是个隐患,这时候搭建一个本地的知识库就尤为重要了。然后在“知识库”,选择“添加”,添加自己的知识库,并且在嵌入模型,选择刚才配置的bge-m3。然后回到对话界面,在对话框的下方,点击知识库图标,然后点击左侧的图标,选中自己创建的知识库。,在这里下载的速度很快。

2025-06-04 11:03:06 279

原创 《开发者必备:DeepSeek 开源 API 调用手册(含 Cherry-Studio 配置截图)

的服务,我们把要提问的问题,传给云端的DeepSeek,然后等DeepSeek处理完成之后,把结果返回给我们。使用方式有2种:一种是通过客户端,以聊天的方式调用DeepSeek,另一种是通过API接口,以程序对接的方式,调用DeepSeek。除了通过客户端访问DeepSeek,对于软件开发者或者企业级客户,还可以通过DeepSeek的API,以程序调用的方式,对接使用DeepSeek。厂商迅速行动,使用自己本地的GPU服务器,部署了DeepSeek,让更多的用户能够接入DeepSeek,享受它的智慧。

2025-05-19 14:59:56 652

原创 《DeepSeek 开源接口深度解析:从 API 获取到客户端部署全流程教程》

的服务,我们把要提问的问题,传给云端的DeepSeek,然后等DeepSeek处理完成之后,把结果返回给我们。使用方式有2种:一种是通过客户端,以聊天的方式调用DeepSeek,另一种是通过API接口,以程序对接的方式,调用DeepSeek。除了通过客户端访问DeepSeek,对于软件开发者或者企业级客户,还可以通过DeepSeek的API,以程序调用的方式,对接使用DeepSeek。厂商迅速行动,使用自己本地的GPU服务器,部署了DeepSeek,让更多的用户能够接入DeepSeek,享受它的智慧。

2025-05-19 14:48:08 897

原创 《实测可用!DeepSeek 免费 API 调用教程:含接入点创建与代码调试》

我们要想使用DeepSeek,要做的就是去调用DeepSeek提供的服务,我们把要提问的问题,传给云端的DeepSeek,然后等DeepSeek处理完成之后,把结果返回给我们。但是别着急,由于DeepSeek是免费开源的,这种开放性让很多厂商迅速行动,使用自己本地的GPU服务器,部署了DeepSeek,让更多的用户能够接入DeepSeek,享受它的智慧。除了通过客户端访问DeepSeek,对于软件开发者或者企业级客户,还可以通过DeepSeek的API,以程序调用的方式,对接使用DeepSeek。

2025-05-16 16:34:58 408

原创 避免单独部署DeepSeek的麻烦,现成的API接口,等你来.....

的服务,我们把要提问的问题,传给云端的DeepSeek,然后等DeepSeek处理完成之后,把结果返回给我们。使用方式有2种:一种是通过客户端,以聊天的方式调用DeepSeek,另一种是通过API接口,以程序对接的方式,调用DeepSeek。除了通过客户端访问DeepSeek,对于软件开发者或者企业级客户,还可以通过DeepSeek的API,以程序调用的方式,对接使用DeepSeek。厂商迅速行动,使用自己本地的GPU服务器,部署了DeepSeek,让更多的用户能够接入DeepSeek,享受它的智慧。

2025-05-16 16:27:07 665

原创 亲测!薅到50小时4090算力,这波不亏

不过用下来也发现一些小问题。这段代码在公司设备上运行,每次训练至少要七八个小时,项目估计还要两三个月,成本有点大,而且时不时还因为设备性能问题报错中断,又得重新开始,项目进度严重滞后。这50小时的算力虽然不能彻底解决项目长期的算力需求,但至少让项目在关键阶段能继续推进,给我们争取到时间去规划后续的算力方案。为了解决算力问题,我网上搜资料、看测评、加群、发帖求助,可推荐平台不是贵得用不起,就是免费的有套路、无法正常使用。拿到算力后,同样的模型训练,居然三个多小时就跑完了,而且结果完全正确,效率提升太明显了。

2025-05-16 10:21:18 222

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除