TechBlog
首页分类标签搜索关于
← 返回标签列表
加载中...

© 2025 TechBlog. All rights reserved.

#标签

共 236 篇文章
大语言模型实战三词编码技术演进从-机器识字符-到-AI-懂语义

大语言模型实战三词编码技术演进从-机器识字符-到-AI-懂语义

大家好,今天我们聊聊自然语言处理(NLP)的“地基”——词编码技术。从让机器“区分单词”到“理解语义”,这背后是四代技术的迭代,正好对应四张经典示意图。

时间:12/22/2025

每天一个AI小知识什么是多模态学习

每天一个AI小知识什么是多模态学习

多模态学习是人工智能的重要分支,让AI能同时处理文本、图像、音频等多种数据形式。本文系统介绍了多模态学习的概念、发展历程、核心技术(如模态融合、对比学习)、主流模型(CLIP、GPT-4、Gemini等)及其在智能助手、内容创作等领域的应用。文章还探讨了当前面临的模态异质性、数据稀缺性等挑战,并展望了全模态学习、实时理解等未来趋势。多模态学习正推动AI向更接近人类智能的方向发展,同时也引发了对智能本质、人机关系等哲学思考。

时间:12/20/2025

从豆包手机等看GUI-AgentMobileRL-GUI-Agent训练框架和安卓XML预处理

从豆包手机等看GUI-AgentMobileRL-GUI-Agent训练框架和安卓XML预处理

以上相关技术汇聚就是目前比较火的“GUIAgent”,顺藤摸瓜的翻到了一篇关于移动端GUIAgent训练框架-(也是用于AgentAutoGLM训练的框架)。下面来看看都解决了什么问题。视觉语言模型(VLM)(如Qwen2.5-VL、GLM-4.1V)让“零样本交互网页/移动界面”的GUIAgent成为研究热点。这类Agent可通过感知屏幕截图+解析UI结构,自主执行点击、滑动、输入等操作,无需人工干预,理论上能适配各类移动应用(如日历、购物、地图APP)。

时间:12/20/2025

Masked-Language-Models是什么

Masked-Language-Models是什么

MLM本质是一种“让模型通过猜词学语言”的训练方法,核心优势是能让模型深刻理解上下文语义,是很多语言理解类模型的“地基”。它就像一个“语言学霸”,通过大量“填空练习”吃透了语言的规律,之后不管是做阅读、匹配信息,还是辅助生成内容(比如RAG里的检索环节),都能发挥扎实的基础作用~

时间:12/18/2025

自然语言处理处理-GBK-编码汉字的算法设计

自然语言处理处理-GBK-编码汉字的算法设计

本文介绍了一个处理GBK编码汉字的Python工具类GBKHandler,实现了GBK编码与解码、合法性校验、批量过滤和文件读写功能。该工具类采用双重容错机制:优先使用Python内置方法处理,失败时提供手动解析兜底;支持大文件分块处理避免内存溢出;严格遵循GBK编码规则(ASCII单字节、汉字双字节)。核心功能包括字符串与GBK字节流的双向转换、有效GBK字符识别、非GBK字符过滤,以及文件的GBK编码读写操作。通过示例展示了各类场景下的使用方法,验证了编码解码的正确性和容错性。

时间:12/17/2025

易语言开发FPS游戏辅助科技脚本示例

易语言开发FPS游戏辅助科技脚本示例

用于存储游戏窗口信息、识别参数等:易语言.版本2.全局变量游戏句柄,整数型.全局变量游戏位置,矩形.全局变量目标R,整数型,,"255"//目标颜色R值.全局变量目标G,整数型,,"0"//目标颜色G值.全局变量目标B,整数型,,"0"//目标颜色B值.全局变量识别开关,逻辑型,,"假"//脚本启停开关。

时间:12/15/2025

基于知识图谱深度学习的大数据NLP医疗知识问答可视化系统全网最详细讲解及源码建议收藏

基于知识图谱深度学习的大数据NLP医疗知识问答可视化系统全网最详细讲解及源码建议收藏

本文详细介绍了一个基于知识图谱与深度学习的医疗问答系统。系统采用Neo4j存储医疗知识图谱,使用Aho-Corasick算法进行高效多模式匹配,并整合了BERT+LSTM+CRF深度学习模型。实现流程包括数据爬取、清洗、实体识别、知识图谱建模等步骤,最终构建了一个具有可视化界面的Flask应用。系统支持自然语言问答,能自动存储交互记录到SQL数据库。文章还详细说明了所需的软件环境配置(JDK1.8、Neo4j4.4.5等)和项目目录结构,为开发者提供了完整的实现方案和技术细节。

时间:12/15/2025

自然语言处理语义基石WordNet与知网赋能自然语言处理的深层逻辑与实践路径

自然语言处理语义基石WordNet与知网赋能自然语言处理的深层逻辑与实践路径

WordNet和知网作为两种典型的知识库,通过不同的知识组织方式为NLP任务提供语义支撑。WordNet以同义词集为核心构建词汇语义网络,通过上下位关系等语义关联实现词义消歧和信息检索;知网则采用义原分解的方法解构概念本质,在概念理解和常识推理中表现突出。二者在词义消歧、信息检索、机器翻译、情感分析和知识问答等任务中展现出互补优势:WordNet擅长词汇层面的语义关联,知网则深入概念本质分析。

时间:12/14/2025

每天一个AI小知识什么是大语言模型LLM

每天一个AI小知识什么是大语言模型LLM

摘要:本文系统介绍了大语言模型(LLM)的发展与应用。从大学生借助ChatGPT撰写论文摘要的案例切入,阐述了LLM的基本概念、核心技术原理及发展历程。文章详细解析了Transformer架构、自监督学习等关键技术,比较了GPT、BERT、LLaMA等主流模型的特点。同时探讨了LLM在内容创作、教育、商业等领域的广泛应用,以及面临的幻觉、偏见等挑战。最后展望了多模态融合、轻量化等未来发展趋势,并引发对智能本质、人机关系等哲学思考。本文为读者提供了全面了解LLM的技术框架和应用前景的参考。

时间:12/11/2025

自然语言处理应用01情感分析及数据集

自然语言处理应用01情感分析及数据集

本文讲解IMDb电影评论情感分析数据集处理流程:下载数据,读取样本,预处理(分词、建词表、截断填充),创建数据迭代器,最后封装为load_data_imdb函数。

时间:12/11/2025

超越简单问答SUPERChem基准揭示大语言模型化学深度推理的机遇与挑战

超越简单问答SUPERChem基准揭示大语言模型化学深度推理的机遇与挑战

近日,北京大学跨学科团队发布的化学大模型基准SUPERChem,如同一把精心锻造的“尺规”,不仅系统测量了当前顶尖模型的化学推理高度,更深刻揭示了其与人类专业认知之间尚存的沟壑,为AI赋能科学研究的下一阶段指明了方向。更深层次看,SUPERChem揭示了当前以大语言模型为代表的AI在迈向“科学智能”道路上必须跨越的鸿沟:如何将海量知识真正内化为可操控、可组合、可溯源的因果模型,而不仅仅是概率关联的集合。化学,以其严谨的底层逻辑与无限的现象组合,成为了检验这一目标的绝佳试金石。

时间:12/11/2025

论文速读MoE-Adapters-过动态混合专家适配器实现更有效的视觉语言模型的持续学习

论文速读MoE-Adapters-过动态混合专家适配器实现更有效的视觉语言模型的持续学习

MoE-Adapters++框架,通过动态混合专家适配器实现视觉语言模型的高效持续学习。该方法采用参数高效的训练策略,在冻结CLIP模型基础上构建动态可扩展的专家集合,利用潜在嵌入自动选择器(LEAS)实现任务识别与零样本推理的无缝切换。相比原始MoE-Adapters,改进后的框架显著降低98%训练参数和70%GPU内存消耗,在11个任务的持续学习基准上取得77.5%平均准确率。实验表明,该方案能有效缓解灾难性遗忘问题,同时保持模型原有的零样本能力,为大规模多模态模型的持续学习提供了高效解决方案。

时间:12/11/2025

股票预测用NLP预测金融趋势的随机时间序列模型

股票预测用NLP预测金融趋势的随机时间序列模型

创新性融合自然语言处理(NLP)的情感分析结果与金融数值数据,基于生成对抗网络(GAN)构建时序预测模型,解决“文本与数值特征有效结合”及“稀疏/低相关金融数据学习”两大核心挑战。ST-GAN在所有预测时间维度(1天、15天、30天)的RMSE与NRMSE均显著低于对比模型,平均NRMSE较现有最优深度学习模型降低32.2%。图5:我们的GAN模型的LSTM生成器网络和CNN鉴别器网络的模型架构。

时间:12/10/2025

计算机科学与应用预训练语言模型在日文文本难易度自动分类中的应用

计算机科学与应用预训练语言模型在日文文本难易度自动分类中的应用

摘要:本研究探讨了基于预训练语言模型的日语文本难易度自动分类方法。通过收集日本语能力测试(JLPT)真题及模拟题作为数据集,评估了14种日语BERT模型在2-5级分类任务中的表现。结果表明,东北大学发布的模型表现最优,其中tohoku-bert-large-japanese-v2在二分类任务中F1值达0.926。随着分类级别细化,模型性能有所下降。该研究为计算机辅助日语学习系统开发提供了技术支持,未来将探索更精细化的分类模型以优化个性化教学。

时间:12/10/2025

LLama-Open-and-Effecient-Foundation-Language-Models

LLama-Open-and-Effecient-Foundation-Language-Models

ThispaperisinspiredbytheChinchillascalinglaw.Itfoundthatgivenafixedcomputingbudget,thebestperformanceisnotgeneratedbythelargermodels,butbythesmallermodelstrainedonmoredata.Soitproposedacollectionofmodelsrangingfr

时间:12/06/2025

AgentrStar2-Agent-Agentic-Reasoning-Technical-Report

AgentrStar2-Agent-Agentic-Reasoning-Technical-Report

MicrosoftResearch提出,这是一个基于14B预训练模型、通过智能体强化学习(agenticRL)训练的数学推理模型,核心创新包括GRPO-RoC算法(结合重采样策略解决代码环境噪声问题)、支持45K并发工具调用且平均延迟0.3秒的大规模RL基础设施,以及“非推理SFT+多阶段RL”的高效训练方案(仅用64块MI300XGPU、510个RL步骤、1周完成训练)。该模型在数学推理任务上表现卓越,AIME24pass@1达80.6%、AIME25达69.8%

时间:12/04/2025

李飞飞最新思考语言模型救不了机器人

李飞飞最新思考语言模型救不了机器人

如果你是护士,我想特别告诉你,在我的职业生涯中,我投入了大量精力在医疗和健康研究上。从技术角度看,ChatGPT的出现依然离不开这三大核心要素,只是数据规模变成了互联网级,神经网络结构更复杂,用的GPU数量也更多,但底层的逻辑和原理并没有改变。一周后,李飞飞在最新的访谈再次提及那篇文章里尚未说尽的部分,把那些自己反复思考却在长文里无法完全展开的问题细致拆解,从语言模型在世界理解上的结构性短板,到三维空间在智能形成中扮演的基础角色,再到机器人长期停滞背后那些难以绕过的现实条件,她都给出了更具体的解释。

时间:12/03/2025

注意力机制-干啥用的

注意力机制-干啥用的

注意力机制(AttentionMechanism)的核心作用是让模型在处理海量/复杂输入信息时,,忽略无关或次要信息,模拟人类“有选择地关注重点”的认知逻辑,最终提升模型对核心信息的捕捉能力、降低冗余信息干扰,同时解决传统模型处理长序列/复杂数据时的长距离依赖问题。简单来说,人类看一张照片会先关注主体(比如人物、核心物体)而非背景,读一句话会先抓核心词而非虚词——注意力机制就是让模型实现这种“选择性关注”。

时间:12/02/2025

电子书大语言模型综述391页

电子书大语言模型综述391页

2022年底,ChatGPT震撼上线,大语言模型技术迅速“席卷”了整个社会,人工智能技术因此迎来了一次重要进展。面对大语言模型的强大性能,我们不禁要问:支撑这些模型的背后技术究竟是什么?这一问题无疑成为了众多科研人员的思考焦点。必须指出的是,大模型技术并不是一蹴而就,其发展历程中先后经历了统计语言模型、神经网络语言模型、预训练语言模型等多个发展阶段,每一步的发展都凝结了众多科研工作者的心血与成果。

时间:12/02/2025

Java-大视界-Java-大数据机器学习模型在自然语言处理中的跨语言信息检索与知识融合

Java-大视界-Java-大数据机器学习模型在自然语言处理中的跨语言信息检索与知识融合

本文探讨了Java在大数据机器学习模型中的跨语言信息检索与知识融合应用。通过构建多语言数据处理平台,实现56种语言语料的智能清洗、分布式存储与低资源语言增强,显著提升数据可用率。基于Java的跨语言预训练模型优化方案,结合分布式计算和领域适配技术,在多个实际项目中验证了其高效性,如欧盟法律文档检索准确率提升至86%。这些实践展示了Java在打破语言壁垒、促进知识共享方面的技术优势与工程价值。

时间:12/02/2025

DeepSeek-V3.2推动开源大型语言模型的前沿发展

DeepSeek-V3.2推动开源大型语言模型的前沿发展

我们介绍了DeepSeek-V3.2,这是一个在高效计算与卓越推理及智能体性能之间取得平衡的模型。DeepSeek-V3.2的关键技术突破如下:(1)DeepSeek稀疏注意力(DSA):我们引入了DSA,这是一种高效注意力机制,在保持长上下文场景中模型性能的同时,大幅降低了计算复杂度。(2)可扩展的强化学习框架:通过实施稳健的强化学习协议并扩展后训练计算,DeepSeek-V3.2的表现与GPT-5相当。

时间:12/01/2025

第24节手搓一个ChatGPT

第24节手搓一个ChatGPT

训练循环基本可以沿用之前的的LM训练代码,只是vocab_size换成新的,数据换成这个loader。注意:模型结构参数必须和当初训练时一样,否则load会报错。确保使用上面的加载词表加载了之前模型保存的词表,否则会映射出错。

时间:12/01/2025

从零构建大模型智能体统一消息格式,快速接入大语言模型

从零构建大模型智能体统一消息格式,快速接入大语言模型

一站式封装LLM调用,轻松构建智能Agent,支持流式与非流式输出。

时间:11/29/2025

VLM经典论文阅读综述An-Introduction-to-Vision-Language-Modeling

VLM经典论文阅读综述An-Introduction-to-Vision-Language-Modeling

本文系统介绍了视觉语言模型(VLM)的研究进展与应用前景。随着大型语言模型(LLM)的成功,研究者开始探索如何将视觉与语言模态有效结合,以拓展AI技术的应用边界。文章首先阐述了VLM的定义与核心挑战,指出视觉数据的高维特性与语言的离散表达之间存在显著鸿沟。随后,论文将现有VLM方法归纳为四大范式:对比学习、掩码重建、基于预训练主干网络和生成式模型,并分析了代表性工作的技术特点。此外,文章探讨了VLM训练中的数据策略、评估基准的局限性,以及视频理解等前沿方向的发展机遇。

时间:11/25/2025

上一页
12345...10
下一页第 1 / 10 页