AI
OpenAI推出下一代通用大型语言模型GPT-4.5哪吒3:埋伏笔?饺子用无量仙翁,为何不把元始天尊设大反派?
hqy 发表于2025-03-01 浏览12 评论0
OpenAI周四公布了通用大型语言模型GPT-4.5的研究预览版。它最初将对软件开发人员和ChatGPT Pro订阅用户开放。
AI
OpenAI推出通用大语言模型GPT-4.5:情商更高,幻觉更少收手吧!“资本家的丑孩子”既无颜值,又无演技,别来祸害观众了
hqy 发表于2025-03-01 浏览8 评论0
鞭牛士报道,2月28日消息,OpenAI 周四宣布了通用大型语言模型 GPT-4.5 的研究预览版。它最初将向软件开发人员和 ChatGPT Pro 订阅用户开放。
AI
Nature:大语言模型只是没有感情的「学人精」
hqy 发表于2025-03-01 浏览9 评论0
AI
语言模型:过去、现在、未来
hqy 发表于2025-03-01 浏览7 评论0
AI
【AAAI2025教程】评估大型语言模型:挑战与方法,199页ppt
hqy 发表于2025-03-01 浏览7 评论0
AI
利用多个大型语言模型:关于LLM集成的调研
hqy 发表于2025-03-01 浏览6 评论0
AI
AI+丨物理学院首届大语言模型调优挑战赛圆满结束
hqy 发表于2025-03-01 浏览7 评论0
AI
为了“取悦”用户,大语言模型表现出强烈的“谄媚”倾向
hqy 发表于2025-03-01 浏览8 评论0
OSCHINA

AI
深度学习与自然语言处理:常见的微调方法有哪些?男子在海底生活14天!每天摸黑潜水出门拉屎,被深海巨鱼死盯不放
hqy 发表于2025-03-01 浏览7 评论0
在深度学习和自然语言处理领域,常见的微调方法主要包括以下几种:
Fine-tuning(全参数微调):这是最传统的微调方法,涉及更新预训练模型中的所有参数,以适应特定任务。这种方法通常能够获得最好的性能,但计算成本较高。 Prompt-tuning(提示微调):这种方法通过设计特定的输入提示(prompts),而不是修改模型的权重,来适应下游任务。它允许模型在计算成本较低的情况下适应各种任务。 Parameter-efficient fine-tuning(参数高效微调):这组方法旨在通过仅训练模型参数的一个子集或新添加的一组参数,以减少所需的参数和计算资源。这些技术对于资源有限的环境非常重要。 Adapter Training(适配器训练):适配器是添加到预训练模型中的小型神经网络,用于特定任务的微调。这些适配器只占原始模型大小的一小部分,使得训练更快,内存需求更低。 Progressive Shrinking(渐进收缩):这种技术涉及在微调期间逐渐减小预训练模型的大小,从而产生比从头开始训练的模型性能更好的小型模型。 Prefix Tuning(前缀微调):涉及学习特定任务的连续提示,在推理过程中将其添加到输入之前。通过优化这个连续提示,模型可以适应特定任务而不修改底层模型参数。 P-Tuning:涉及训练可学习的称为“提示记号”的参数,这些参数与输入序列连接。这些提示记号是特定于任务的,在微调过程中进行优化,使得模型可以在保持原始模型参数不变的情况下在新任务上表现良好。AI
北自所申请基于自然语言处理的自动拣选方法、装置及存储介质专利,提高拣选效率民间故事:枣人
hqy 发表于2025-03-01 浏览16 评论0
金融界2024年11月28日消息,国家知识产权局信息显示,北自所(北京)科技发展股份有限公司申请一项名为“一种基于自然语言处理的自动拣选方法、装置及存储介质”的专利,公开号 CN 119026599 A,申请日期为 2024 年 8 月。