AI
OpenAI推出通用大语言模型GPT-4.5:情商更高,幻觉更少德国和江苏同为8000多万人,德国创造4.45万亿GDP,江苏是多少?
hqy 发表于2025-03-03 浏览7 评论0
鞭牛士报道,2月28日消息,OpenAI 周四宣布了通用大型语言模型 GPT-4.5 的研究预览版。它最初将向软件开发人员和 ChatGPT Pro 订阅用户开放。
AI
梦网科技:与DeepSeek无合作,仅使用其开源大语言模型能力为什么鹤童能挡敖光的人刀合一,却能轻易被哪吒一脚踩烂了裙子?
hqy 发表于2025-03-03 浏览8 评论0
金融界2月28日消息,有投资者在互动平台向梦网科技提问:贵公司是如何理解:接入deepseek就是和deepseek公司合作?如果使用微软公司的系统是不是也可以理解为和微软公司合作吗?贵公司也只是使用deepseek软件吗?
AI
【AAAI2025教程】大型语言模型中的知识生命周期:记忆、编辑与超越,216页ppt
hqy 发表于2025-03-03 浏览10 评论0
知识是各种人工智能应用的重要前提。通常,知识来源于结构化知识库(如知识图谱和词典)或非结构化知识源(如维基百科文档)。近年来,研究人员发现,大型语言模型(LLM)在预训练过程中已经内化了大量知识。
AI
西方学界对特朗普路线的判断,正出现惊人调转
hqy 发表于2025-03-03 浏览16 评论0
✪ 维杰·普拉沙德(Vijay Prashad)
AI
扬州海关政务终端接入DeepSeek清军入关,知识分子不愿为官,康熙推出这一举措解决问题
hqy 发表于2025-03-03 浏览33 评论0
原标题:扬州海关政务终端接入DeepSeek

AI
应用DeepSeek重塑档案检索功能 昌平档案数智赋能再升级盘点《唐朝诡事录》:剧中的司马与参军放到现代会是什么官衔?
hqy 发表于2025-03-03 浏览26 评论0
近日,昌平区档案馆依托数字档案馆建设,在国内档案领域率先接入DeepSeek大模型进行本地化部署,实现了档案检索功能重塑,使得“查档”不再是冰冷的数据匹配,而是人与AI的智慧对话。

AI
探索深度学习与自然语言处理中的微调技术:常见方法全解析如果鳌拜不束手就擒,而是有野心的谋反,能赢吗?答案出乎意料
hqy 发表于2025-03-03 浏览7 评论0
在深度学习以及自然语言处理的领域中,常见的微调方法主要包含以下几种类型:
Fine-tuning(全参数微调):作为最为传统的微调方式,其操作涉及对预训练模型里的所有参数进行更新,以此来适配特定的任务。该方法通常能够获取最佳性能,不过计算成本相对较高。 Prompt-tuning(提示微调):此方法是通过精心设计特定的输入提示(prompts),而非更改模型的权重,进而实现对下游任务的适配。它使得模型能够在计算成本较低的情况下,适应各类不同的任务。 Parameter-efficient fine-tuning(参数高效微调):这一系列方法的核心在于仅对模型参数的一个子集或者新添加的一组参数展开训练,以此减少所需的参数数量以及计算资源。对于资源受限的环境而言,这些技术意义重大。 Adapter Training(适配器训练):适配器属于添加到预训练模型中的小型神经网络,专门用于特定任务的微调工作。这些适配器仅仅占据原始模型大小的极小一部分,从而使得训练速度更快,同时内存需求也更低。 Progressive Shrinking(渐进收缩):该技术是在微调期间,逐步缩小预训练模型的规模,进而生成相较于从头开始训练的模型性能更为出色的小型模型。 Prefix Tuning(前缀微调):主要涉及对特定任务的连续提示进行学习,并且在推理过程中将其添加至输入之前。通过对这个连续提示加以优化,模型便能够在不修改底层模型参数的前提下,适应特定任务。 P-Tuning:主要是对可学习的、被称为“提示记号”的参数展开训练,这些参数需要与输入序列相连接。这些提示记号具有任务特异性,在微调过程中进行优化,如此一来,模型便能够在保持原始模型参数不变的情况下,在新任务上有着良好的表现。
AI
探索深度学习与自然语言处理:常见微调技巧揭秘他是皇太极长子,被多尔衮冤杀,11代后出了一位家喻户晓的女人
hqy 发表于2025-03-03 浏览9 评论0
在深度学习以及自然语言处理的领域中,常见的微调方法主要包含以下几种:
Fine-tuning(全参数微调):作为最为传统的微调方法,它需要对预训练模型里的所有参数进行更新,以此让模型能够适应特定的任务。这种方法通常能获取到最佳性能,不过其计算成本相对较高。 Prompt-tuning(提示微调):该方法通过精心设计特定的输入提示(prompts),而非修改模型权重的方式来使模型适配下游任务。如此一来,模型能够在计算成本较低的情况下适应各种各样的任务。 Parameter-efficient fine-tuning(参数高效微调):这组方法的核心在于仅对模型参数的一个子集或者新添加的一组参数展开训练,目的是减少所需的参数量以及计算资源。对于资源有限的环境而言,这些技术显得尤为重要。 Adapter Training(适配器训练):适配器属于添加到预训练模型中的小型神经网络,用于针对特定任务展开微调工作。由于这些适配器仅仅占据原始模型大小的一小部分,所以训练速度更快,同时内存需求也更低。 Progressive Shrinking(渐进收缩):此技术在微调期间会逐渐缩小预训练模型的规模,进而打造出比从头开始训练的模型性能更优的小型模型。 Prefix Tuning(前缀微调):主要是学习特定任务的连续提示,在推理过程中将其添加至输入之前。通过对该连续提示进行优化,模型能够在不修改底层模型参数的前提下适应特定任务。 P-Tuning:涉及对可学习的“提示记号”参数展开训练,这些参数与输入序列相连接。这些提示记号是具有任务特异性的,在微调过程中对其进行优化,使得模型可以在保持原始模型参数不变的情况下,在新任务上有着良好的表现。AI
银之杰:公司在图像识别、自然语言处理等方向有AI技术积累岁月沉淀,这三种能力成就非凡人生
hqy 发表于2025-03-03 浏览11 评论0
金融界2月13日消息,有投资者在互动平台向银之杰提问:请问贵公司是否有涉及AI智能体的业务或可用于AI智能体的产品?
公司回答表示:公司在人工智能方面的积累主要在图像识别和自然语言处理方向。公司的印章识别系统和智能印控机产品,集成了印章识别算法、OCR、机器视觉、神经网络、文件自动比对等智能化技术;公司投资的智能语音技术公司(百可录)实现了AI技术在银行智能语音坐席场景的应用;公司也是百度文心一言首批合作伙伴。公司持续关注并积极探索人工智能的发展和应用。

AI
探秘深度学习与自然语言处理:常见的微调策略全解析!Z世代,你的社交媒体焦虑,是时候说拜拜了!
hqy 发表于2025-03-03 浏览11 评论0
在深度学习和自然语言处理领域,常见的微调方法主要有以下几种:
全参数微调(Fine-tuning):这是最为传统的微调方式。它需要对预训练模型中的所有参数进行更新,以此来适应特定的任务。这种方法往往能够取得最佳性能,不过其计算成本相对较高。 提示微调(Prompt-tuning):该方法通过精心设计特定的输入提示(prompts),而不是去修改模型的权重,来使模型适应下游任务。这样能让模型在计算成本较低的情况下,适应各种各样的任务。 参数高效微调(Parameter-efficient fine-tuning):这组方法的核心在于,只对模型参数的一个子集或者新添加的一组参数进行训练,目的是减少所需的参数数量以及计算资源。对于那些资源有限的环境而言,这些技术有着至关重要的意义。 适配器训练(Adapter Training):适配器是一种添加到预训练模型中的小型神经网络,主要用于特定任务的微调。这些适配器仅仅占据原始模型大小的一小部分,所以训练速度更快,而且内存需求也更低。 渐进收缩(Progressive Shrinking):这种技术是在微调期间,逐渐减小预训练模型的规模,最终得到一个比从头开始训练性能更好的小型模型。 前缀微调(Prefix Tuning):它涉及学习特定任务的连续提示,并在推理过程中将其添加到输入之前。通过对这个连续提示进行优化,模型就能适应特定任务,且无需修改底层模型参数。 P-Tuning:主要涉及对可学习的“提示记号”参数进行训练,这些参数会与输入序列相连接。这些提示记号是特定于任务的,在微调过程中会被优化,使得模型能够在保持原始模型参数不变的情况下,在新任务上有良好的表现。