×

AI

龙光云众申请基于语义分析的物业服务工单派发专利,业主提交问题更快得到响应和解决日本人为何“钟爱”切腹自尽?万一一刀切不死怎么办?

hqy hqy 发表于2025-04-21 浏览2 评论0

金融界2024年10月24日消息,国家知识产权局信息显示,深圳市龙光云众智慧科技有限公司申请一项名为“一种基于语义分析的物业服务工单派发方法、系统及介质”的专利,公开号CN 118798558 A,申请日期为2024年7月。

AI

大语言模型(LLM)、图检索增强生成(Graph RAG)与智能指标平台有机融合:将助力企业开启智能数据分析新时代

hqy hqy 发表于2025-04-21 浏览2 评论0

在数字化时代,数据分析已成为企业决策的核心驱动力。然而,随着数据量的爆发式增长和业务复杂性的提升,传统的数据分析工具已难以满足企业对高效、精准和深度洞察的需求。本文将探讨大语言模型(LLM)、图检索增强生成(Graph RAG)与智能指标平台的有机融合如何为企业带来全新的智能数据分析体验,供大家参考。

深度学习与自然语言处理:常见的微调方法有哪些?一份中世纪地图可能揭示了失落的亚特兰蒂斯城

AI

深度学习与自然语言处理:常见的微调方法有哪些?一份中世纪地图可能揭示了失落的亚特兰蒂斯城

hqy hqy 发表于2025-04-21 浏览2 评论0

在深度学习和自然语言处理领域,常见的微调方法主要包括以下几种:

Fine-tuning(全参数微调):这是最传统的微调方法,涉及更新预训练模型中的所有参数,以适应特定任务。这种方法通常能够获得最好的性能,但计算成本较高。 Prompt-tuning(提示微调):这种方法通过设计特定的输入提示(prompts),而不是修改模型的权重,来适应下游任务。它允许模型在计算成本较低的情况下适应各种任务。 Parameter-efficient fine-tuning(参数高效微调):这组方法旨在通过仅训练模型参数的一个子集或新添加的一组参数,以减少所需的参数和计算资源。这些技术对于资源有限的环境非常重要。 Adapter Training(适配器训练):适配器是添加到预训练模型中的小型神经网络,用于特定任务的微调。这些适配器只占原始模型大小的一小部分,使得训练更快,内存需求更低。 Progressive Shrinking(渐进收缩):这种技术涉及在微调期间逐渐减小预训练模型的大小,从而产生比从头开始训练的模型性能更好的小型模型。 Prefix Tuning(前缀微调):涉及学习特定任务的连续提示,在推理过程中将其添加到输入之前。通过优化这个连续提示,模型可以适应特定任务而不修改底层模型参数。 P-Tuning:涉及训练可学习的称为“提示记号”的参数,这些参数与输入序列连接。这些提示记号是特定于任务的,在微调过程中进行优化,使得模型可以在保持原始模型参数不变的情况下在新任务上表现良好。