AI
格力申请基于卷积神经网络的温度控制专利,提高空调的温度控制准确性古代城门大多都是木头做的,那为什么不在攻城时直接用火烧呢?
hqy 发表于2025-03-02 浏览8 评论0
金融界2024年11月2日消息,国家知识产权局信息显示,珠海格力电器股份有限公司申请一项名为“基于卷积神经网络的温度控制方法、装置、空调及介质”的专利,公开号CN 118882192 A,申请日期为2024年9月。
AI
海康威视申请3D卷积神经网络处理专利,无需重新部署硬件设备,节约了硬件成本睿亲王多尔衮权倾天下,为何不趁机称帝?实力不允许时间不够用
hqy 发表于2025-03-02 浏览6 评论0
金融界2024年3月16日消息,据国家知识产权局公告,杭州海康威视数字技术股份有限公司申请一项名为“3D卷积神经网络的处理方法和处理装置“,公开号CN117709405A,申请日期为2023年12月。
AI
OPPP取得卷积神经网络专利,降低数据处理过程中的运算量并提高数据处理的效率莫言:当我看到一个女人手上没有手镯、手链,脖子上没有项链,“特别”的女人
hqy 发表于2025-03-02 浏览8 评论0
金融界2024年3月25日消息,据国家知识产权局公告,OPPO广东移动通信有限公司取得一项名为“卷积神经网络、基于卷积神经网络的数据处理方法和装置“,授权公告号CN111415000B,申请日期为2020年4月。
AI
为什么deepseek没有诞生在顶尖科研机构和大公司?
hqy 发表于2025-03-02 浏览9 评论0
DeepSeek的诞生,也许标志着人工智能的“爱迪生时刻”已经到来。尽管法拉第早在1831年就发现了电磁感应现象,为发电机和电动机的出现提供了理论基础,但直到半个世纪后爱迪生发明了耐用便宜的电灯并建立了稳定输出电能的珍珠街电站,人类世界才整体性的进入了电气时代。DeepSeek的独特技术方案,可能标志着人工智能真正具备了走进千家万户、改变各行各业的能力。
AI
性能猛兽降临!iGame GeForce RTX 5080 Vulcan OC 16GB火神深度剖析
hqy 发表于2025-03-02 浏览6 评论0
在显卡市场中,iGame系列一直以其卓越的性能和独特的设计备受玩家青睐。而作为iGame系列的高端产品,Vulcan OC 火神始终致力于为玩家提供极致的游戏体验。今天,我们要为大家深入评测一款备受瞩目的显卡——iGame GeForce RTX 5080 Vulcan OC 16GB火神。这款显卡不仅拥有强大的性能,还具备炫酷的外观和高效的散热设计,是高端玩家的终极选择。接下来,我们将从多个角度为大家详细解析这款显卡的魅力。
AI
卷积神经网络的复杂度分析
hqy 发表于2025-03-02 浏览9 评论0
加入极市专业CV交流群,与6000+来自腾讯,华为,百度,北大,清华,中科院等名企名校视觉开发者互动交流!更有机会与
AI
卷积神经网络的压缩和加速
hqy 发表于2025-03-02 浏览6 评论0
广而告之
AI
想入门设计卷积神经网络?这是一份综合设计指南
hqy 发表于2025-03-02 浏览10 评论0
选自hackernoon
AI
固德威:智慧能源管理系统已接入多种机器学习和深度学习算法科学家在海拔6705米火山顶发现13具老鼠木乃伊!这是什么情况?
hqy 发表于2025-03-02 浏览6 评论0
金融界2月20日消息,有投资者在互动平台向固德威提问:请问贵司智慧能源管理平台是否接入AI,后续是否考虑部署deepseek来实现实现公司AI能源赋能。

AI
探索深度学习与自然语言处理:常见的微调策略揭秘二战中德国情报部门的耻辱,史上最业余的情报部——东线外军处
hqy 发表于2025-03-02 浏览7 评论0
在深度学习与自然语言处理领域,常见的微调方法主要包含以下几种:
Fine-tuning(全参数微调):作为最传统的微调方法,它需要对预训练模型中的所有参数进行更新,以此来适应特定任务。该方法通常能取得最佳性能,不过其计算成本相对较高。 Prompt-tuning(提示微调):此方法通过精心设计特定的输入提示(prompts),而非修改模型权重,来使模型适应下游任务。这样能使模型在计算成本较低的情况下适应各类任务。 Parameter-efficient fine-tuning(参数高效微调):这组方法主要是通过仅训练模型参数的一个子集或者新添加的一组参数,以此减少所需的参数数量以及计算资源。对于资源有限的环境而言,这些技术意义重大。 Adapter Training(适配器训练):适配器是一种添加到预训练模型中的小型神经网络,用于针对特定任务进行微调。这些适配器仅占原始模型大小的一小部分,从而使得训练速度更快,内存需求也更低。 Progressive Shrinking(渐进收缩):该技术在微调过程中会逐渐减小预训练模型的大小,进而产生比从头开始训练的模型性能更优的小型模型。 Prefix Tuning(前缀微调):这种方法涉及学习特定任务的连续提示,并在推理过程中将其添加在输入之前。通过对这个连续提示进行优化,模型能够在不修改底层模型参数的情况下适应特定任务。 P-Tuning:此方法涉及对可学习的“提示记号”参数进行训练,这些参数与输入序列相连。这些提示记号具有任务特异性,在微调过程中对其进行优化,从而使模型在保持原始模型参数不变的情况下,在新任务上有良好的表现。