×

AI

完善大语言模型治理体系 守护数智时代网络安全

hqy hqy 发表于2025-06-07 浏览16 评论0

中核武汉核电运行技术股份有限公司 朱洪文 高汉军 冯 蔚

当前,以ChatGPT、DeepSeek为代表的大语言模型(LLM)技术正加速重构全球产业格局。截至2025年,我国生成式人工智能大模型备案数量已突破300个,LLM技术已深度嵌入企业核心业务场景。然而,技术红利背后潜藏着网络安全范式变革——传统基于规则和特征的防护体系,正面临人工智能赋能的复合型风险挑战。大语言模型应用使企业网络安全威胁呈现三大跃迁:其一,攻击维度升级,深度伪造语音、人工智能驱动的钓鱼邮件等新型社会工程攻击,突破传统网络边界防御逻辑;其二,数据风险泛化,LLM训练数据中潜藏的敏感信息可能通过逆向工程泄露;其三,供应链威胁加剧,LLM技术栈深度依赖开源框架和预训练模型库,第三方API接口和模型权重中的隐蔽后门正成为关键基础设施的安全盲区。

好课优选:Transformer模型-自然语言处理的技术革新

AI

好课优选:Transformer模型-自然语言处理的技术革新

hqy hqy 发表于2025-06-07 浏览22 评论0

好课优选:Transformer模型-自然语言处理的技术革新

在人工智能蓬勃发展的浪潮中,自然语言处理(NLP)始终是 AI 技术发展的关键方向,而 Transformer 模型的诞生,堪称这一领域的革命性突破。2017 年,Vaswani 等人提出 Transformer 模型,旨在解决序列到序列(Seq2Seq)任务。与传统的循环神经网络(RNN)和长短期记忆网络(LSTM)相比,它展现出强大的优势。

深度学习与自然语言处理:常见的微调方法有哪些?建国后周恩来数次邀请张发奎回国,张发奎婉拒:我两头都不会去的

AI

深度学习与自然语言处理:常见的微调方法有哪些?建国后周恩来数次邀请张发奎回国,张发奎婉拒:我两头都不会去的

hqy hqy 发表于2025-06-07 浏览14 评论0

在深度学习和自然语言处理领域,常见的微调方法主要包括以下几种:

Fine-tuning(全参数微调):这是最传统的微调方法,涉及更新预训练模型中的所有参数,以适应特定任务。这种方法通常能够获得最好的性能,但计算成本较高。 Prompt-tuning(提示微调):这种方法通过设计特定的输入提示(prompts),而不是修改模型的权重,来适应下游任务。它允许模型在计算成本较低的情况下适应各种任务。 Parameter-efficient fine-tuning(参数高效微调):这组方法旨在通过仅训练模型参数的一个子集或新添加的一组参数,以减少所需的参数和计算资源。这些技术对于资源有限的环境非常重要。 Adapter Training(适配器训练):适配器是添加到预训练模型中的小型神经网络,用于特定任务的微调。这些适配器只占原始模型大小的一小部分,使得训练更快,内存需求更低。 Progressive Shrinking(渐进收缩):这种技术涉及在微调期间逐渐减小预训练模型的大小,从而产生比从头开始训练的模型性能更好的小型模型。 Prefix Tuning(前缀微调):涉及学习特定任务的连续提示,在推理过程中将其添加到输入之前。通过优化这个连续提示,模型可以适应特定任务而不修改底层模型参数。 P-Tuning:涉及训练可学习的称为“提示记号”的参数,这些参数与输入序列连接。这些提示记号是特定于任务的,在微调过程中进行优化,使得模型可以在保持原始模型参数不变的情况下在新任务上表现良好。

AI

北自所申请基于自然语言处理的自动拣选方法、装置及存储介质专利,提高拣选效率徐庶进曹营,真的一言不发?他其实献了两计,一计让刘备伤亡惨重

hqy hqy 发表于2025-06-07 浏览9 评论0

金融界2024年11月28日消息,国家知识产权局信息显示,北自所(北京)科技发展股份有限公司申请一项名为“一种基于自然语言处理的自动拣选方法、装置及存储介质”的专利,公开号 CN 119026599 A,申请日期为 2024 年 8 月。

探索深度学习与自然语言处理中的微调技术:常见方法全解析普京谈列宁:一生最大的错误,就是把一个统一国家改造成联盟

AI

探索深度学习与自然语言处理中的微调技术:常见方法全解析普京谈列宁:一生最大的错误,就是把一个统一国家改造成联盟

hqy hqy 发表于2025-06-07 浏览14 评论0

在深度学习以及自然语言处理的领域中,常见的微调方法主要包含以下几种类型:

Fine-tuning(全参数微调):作为最为传统的微调方式,其操作涉及对预训练模型里的所有参数进行更新,以此来适配特定的任务。该方法通常能够获取最佳性能,不过计算成本相对较高。 Prompt-tuning(提示微调):此方法是通过精心设计特定的输入提示(prompts),而非更改模型的权重,进而实现对下游任务的适配。它使得模型能够在计算成本较低的情况下,适应各类不同的任务。 Parameter-efficient fine-tuning(参数高效微调):这一系列方法的核心在于仅对模型参数的一个子集或者新添加的一组参数展开训练,以此减少所需的参数数量以及计算资源。对于资源受限的环境而言,这些技术意义重大。 Adapter Training(适配器训练):适配器属于添加到预训练模型中的小型神经网络,专门用于特定任务的微调工作。这些适配器仅仅占据原始模型大小的极小一部分,从而使得训练速度更快,同时内存需求也更低。 Progressive Shrinking(渐进收缩):该技术是在微调期间,逐步缩小预训练模型的规模,进而生成相较于从头开始训练的模型性能更为出色的小型模型。 Prefix Tuning(前缀微调):主要涉及对特定任务的连续提示进行学习,并且在推理过程中将其添加至输入之前。通过对这个连续提示加以优化,模型便能够在不修改底层模型参数的前提下,适应特定任务。 P-Tuning:主要是对可学习的、被称为“提示记号”的参数展开训练,这些参数需要与输入序列相连接。这些提示记号具有任务特异性,在微调过程中进行优化,如此一来,模型便能够在保持原始模型参数不变的情况下,在新任务上有着良好的表现。

探索深度学习与自然语言处理:常见微调技巧揭秘孤守西域40余年,满城白发老兵改朝换代都不知,只知战到最后一人

AI

探索深度学习与自然语言处理:常见微调技巧揭秘孤守西域40余年,满城白发老兵改朝换代都不知,只知战到最后一人

hqy hqy 发表于2025-06-07 浏览12 评论0

在深度学习以及自然语言处理的领域中,常见的微调方法主要包含以下几种:

Fine-tuning(全参数微调):作为最为传统的微调方法,它需要对预训练模型里的所有参数进行更新,以此让模型能够适应特定的任务。这种方法通常能获取到最佳性能,不过其计算成本相对较高。 Prompt-tuning(提示微调):该方法通过精心设计特定的输入提示(prompts),而非修改模型权重的方式来使模型适配下游任务。如此一来,模型能够在计算成本较低的情况下适应各种各样的任务。 Parameter-efficient fine-tuning(参数高效微调):这组方法的核心在于仅对模型参数的一个子集或者新添加的一组参数展开训练,目的是减少所需的参数量以及计算资源。对于资源有限的环境而言,这些技术显得尤为重要。 Adapter Training(适配器训练):适配器属于添加到预训练模型中的小型神经网络,用于针对特定任务展开微调工作。由于这些适配器仅仅占据原始模型大小的一小部分,所以训练速度更快,同时内存需求也更低。 Progressive Shrinking(渐进收缩):此技术在微调期间会逐渐缩小预训练模型的规模,进而打造出比从头开始训练的模型性能更优的小型模型。 Prefix Tuning(前缀微调):主要是学习特定任务的连续提示,在推理过程中将其添加至输入之前。通过对该连续提示进行优化,模型能够在不修改底层模型参数的前提下适应特定任务。 P-Tuning:涉及对可学习的“提示记号”参数展开训练,这些参数与输入序列相连接。这些提示记号是具有任务特异性的,在微调过程中对其进行优化,使得模型可以在保持原始模型参数不变的情况下,在新任务上有着良好的表现。

探索深度学习与自然语言处理:常见的微调策略揭秘历史上有三个预言,看起来是非常神秘的

AI

探索深度学习与自然语言处理:常见的微调策略揭秘历史上有三个预言,看起来是非常神秘的

hqy hqy 发表于2025-06-07 浏览11 评论0

在深度学习与自然语言处理领域,常见的微调方法主要包含以下几种:

Fine-tuning(全参数微调):作为最传统的微调方法,它需要对预训练模型中的所有参数进行更新,以此来适应特定任务。该方法通常能取得最佳性能,不过其计算成本相对较高。 Prompt-tuning(提示微调):此方法通过精心设计特定的输入提示(prompts),而非修改模型权重,来使模型适应下游任务。这样能使模型在计算成本较低的情况下适应各类任务。 Parameter-efficient fine-tuning(参数高效微调):这组方法主要是通过仅训练模型参数的一个子集或者新添加的一组参数,以此减少所需的参数数量以及计算资源。对于资源有限的环境而言,这些技术意义重大。 Adapter Training(适配器训练):适配器是一种添加到预训练模型中的小型神经网络,用于针对特定任务进行微调。这些适配器仅占原始模型大小的一小部分,从而使得训练速度更快,内存需求也更低。 Progressive Shrinking(渐进收缩):该技术在微调过程中会逐渐减小预训练模型的大小,进而产生比从头开始训练的模型性能更优的小型模型。 Prefix Tuning(前缀微调):这种方法涉及学习特定任务的连续提示,并在推理过程中将其添加在输入之前。通过对这个连续提示进行优化,模型能够在不修改底层模型参数的情况下适应特定任务。 P-Tuning:此方法涉及对可学习的“提示记号”参数进行训练,这些参数与输入序列相连。这些提示记号具有任务特异性,在微调过程中对其进行优化,从而使模型在保持原始模型参数不变的情况下,在新任务上有良好的表现。