AI
大语言模型降低编程门槛 校园探索小学生编程
hqy 发表于2025-02-25 浏览8 评论0
中午吃什么?用编程来解决。上海青浦区世外学校的小程序社团作品发布会上,一款名叫《美食推荐机》的小程序作品吸引众多目光——五年级学生将国产大模型DeepSeek与微信小程序结合,帮助用户解决美食选择困难的烦恼。
AI
什么是大语言模型
hqy 发表于2025-02-25 浏览8 评论0
什么是大语言模型

AI
《自然语言处理:人工智能与人类沟通的桥梁》
hqy 发表于2025-02-25 浏览6 评论0
语言,是人类交流的重要工具。而自然语言处理,作为人工智能的一个重要领域,旨在让机器能够理解和生成人类语言,成为人工智能与人类沟通的桥梁。

AI
【蓝因子教育】自然语言处理之文本数据增强
hqy 发表于2025-02-25 浏览5 评论0
什么是数据增强
数据增强可以简单理解为由少量数据生成大量数据的过程。一般比较成功的神经网络拥有大量参数,使这些参数正确工作需要用大量的数据进行训练,但实际情况中数据并没有那么多,因此需要做数据增强。

AI
网易微专业-AI工程师-自然语言处理
hqy 发表于2025-02-25 浏览14 评论0

AI
深度学习和自然语言处理领域,常见的微调方法有哪些?陕西挖出李世民女儿墓,棺椁不见踪影,得知真相后,专家愤怒不已
hqy 发表于2025-02-25 浏览6 评论0
在深度学习和自然语言处理领域,常见的微调方法主要包括以下几种:
Fine-tuning(全参数微调)
AI
深度学习与自然语言处理:常见的微调方法有哪些?1938年“四川王”刘湘病逝,死前留下遗言震撼全国,死后葬武侯祠
hqy 发表于2025-02-25 浏览10 评论0
在深度学习和自然语言处理领域,常见的微调方法主要包括以下几种:
Fine-tuning(全参数微调):这是最传统的微调方法,涉及更新预训练模型中的所有参数,以适应特定任务。这种方法通常能够获得最好的性能,但计算成本较高。 Prompt-tuning(提示微调):这种方法通过设计特定的输入提示(prompts),而不是修改模型的权重,来适应下游任务。它允许模型在计算成本较低的情况下适应各种任务。 Parameter-efficient fine-tuning(参数高效微调):这组方法旨在通过仅训练模型参数的一个子集或新添加的一组参数,以减少所需的参数和计算资源。这些技术对于资源有限的环境非常重要。 Adapter Training(适配器训练):适配器是添加到预训练模型中的小型神经网络,用于特定任务的微调。这些适配器只占原始模型大小的一小部分,使得训练更快,内存需求更低。 Progressive Shrinking(渐进收缩):这种技术涉及在微调期间逐渐减小预训练模型的大小,从而产生比从头开始训练的模型性能更好的小型模型。 Prefix Tuning(前缀微调):涉及学习特定任务的连续提示,在推理过程中将其添加到输入之前。通过优化这个连续提示,模型可以适应特定任务而不修改底层模型参数。 P-Tuning:涉及训练可学习的称为“提示记号”的参数,这些参数与输入序列连接。这些提示记号是特定于任务的,在微调过程中进行优化,使得模型可以在保持原始模型参数不变的情况下在新任务上表现良好。AI
北自所申请基于自然语言处理的自动拣选方法、装置及存储介质专利,提高拣选效率揭秘迈克尔逊-莫雷实验:相对论诞生的基石?
hqy 发表于2025-02-25 浏览18 评论0
金融界2024年11月28日消息,国家知识产权局信息显示,北自所(北京)科技发展股份有限公司申请一项名为“一种基于自然语言处理的自动拣选方法、装置及存储介质”的专利,公开号 CN 119026599 A,申请日期为 2024 年 8 月。
AI
清华团队推出“安全增强版DeepSeek”清朝宫女被放出宫后,个个长相漂亮为何无人愿娶?溥仪说出了实话
hqy 发表于2025-02-25 浏览7 评论0
本文转自:人民网
人民网北京2月24日电 (记者赵竹青)2月23日,清华大学计算机系相关研究团队宣布推出大语言模型RealSafe-R1。该模型基于DeepSeek R1进行深度优化与后训练,在确保性能稳定的基础上,显著提升了安全性,为开源大模型的安全发展与风险治理提供了创新性解决方案。

AI
探索深度学习与自然语言处理中的微调技术:常见方法全解析海信全球首款RGB-Mini LED电视国内首次亮相
hqy 发表于2025-02-25 浏览5 评论0
在深度学习以及自然语言处理的领域中,常见的微调方法主要包含以下几种类型:
Fine-tuning(全参数微调):作为最为传统的微调方式,其操作涉及对预训练模型里的所有参数进行更新,以此来适配特定的任务。该方法通常能够获取最佳性能,不过计算成本相对较高。 Prompt-tuning(提示微调):此方法是通过精心设计特定的输入提示(prompts),而非更改模型的权重,进而实现对下游任务的适配。它使得模型能够在计算成本较低的情况下,适应各类不同的任务。 Parameter-efficient fine-tuning(参数高效微调):这一系列方法的核心在于仅对模型参数的一个子集或者新添加的一组参数展开训练,以此减少所需的参数数量以及计算资源。对于资源受限的环境而言,这些技术意义重大。 Adapter Training(适配器训练):适配器属于添加到预训练模型中的小型神经网络,专门用于特定任务的微调工作。这些适配器仅仅占据原始模型大小的极小一部分,从而使得训练速度更快,同时内存需求也更低。 Progressive Shrinking(渐进收缩):该技术是在微调期间,逐步缩小预训练模型的规模,进而生成相较于从头开始训练的模型性能更为出色的小型模型。 Prefix Tuning(前缀微调):主要涉及对特定任务的连续提示进行学习,并且在推理过程中将其添加至输入之前。通过对这个连续提示加以优化,模型便能够在不修改底层模型参数的前提下,适应特定任务。 P-Tuning:主要是对可学习的、被称为“提示记号”的参数展开训练,这些参数需要与输入序列相连接。这些提示记号具有任务特异性,在微调过程中进行优化,如此一来,模型便能够在保持原始模型参数不变的情况下,在新任务上有着良好的表现。