TechBlog
首页分类标签搜索关于
← 返回标签列表
加载中...

© 2025 TechBlog. All rights reserved.

#标签

共 665 篇文章
降尺度基于统计方法与机器学习技术在气候降尺度中的实践应用

降尺度基于统计方法与机器学习技术在气候降尺度中的实践应用

【降尺度】基于统计方法与机器学习技术在气候降尺度中的实践应用

时间:12/23/2025

支持向量机

支持向量机

SVM作为经典的机器学习算法,其核心价值在于“以少胜多”——通过支持向量这一关键样本,在高维空间中找到最优分隔超平面,实现小样本场景下的高精度分类。虽然在大规模数据场景下,SVM的训练效率不如随机森林、梯度提升树等算法,但在高维、小样本、非线性数据的分类任务中,它依然是值得优先尝试的算法。对于初学者来说,学习SVM的关键是理解“最大化间隔”和“核函数”这两个核心概念,不要被复杂的数学推导吓倒(比如拉格朗日乘数法、对偶问题等,初期可以先理解思想,再深入推导)。

时间:12/22/2025

机器学习认识随机森林

机器学习认识随机森林

基学习器n)依次训练,前序基学习器的经验指导后续基学习器聚焦易错处,最终将这些基学习器的能力整合,形成精度与泛化能力更强的强学习器,实现“多个弱学习器合力成强学习器”的效果,像AdaBoost、XGBoost等流行算法都基于此思路设计。对异常值的敏感性:随机森林对异常值不敏感,因为它是基于多个树的集成,在面对少量异常值时,整体的预测结果不会受到太大影响。这增加了树与树之间的多样性。CART树的应用:在使用CART(分类与回归树)树的情况下,它们既可以被用作分类树处理分类任务,也可以作为回归树处理回归任务。

时间:12/21/2025

多模态大模型实战从零实现CLIP与电商跨模态检索系统

多模态大模型实战从零实现CLIP与电商跨模态检索系统

本文将撕开多模态大模型的技术面纱,完全从零实现OpenAICLIP架构,并构建一个支持千万级商品的电商跨模态检索系统。完整代码涵盖VisionTransformer图像编码器、Transformer文本编码器、对比学习损失函数等核心模块,提供海量商品数据增强策略、难负样本挖掘、混合精度训练等生产级优化。实测在Product10K数据集上零样本检索Recall@1达0.823,微调后提升至0.967,延迟控制在15ms以内。

时间:12/21/2025

自动驾驶RAD-要点总结地平线

自动驾驶RAD-要点总结地平线

首次提出3DGS-basedRL框架用于训练端到端AD策略创新结合RL和IL,实现协同优化,RL补充IL的因果关系建模,IL补充RL的人类对齐设计专门的安全奖励和密集辅助目标,解决稀疏奖励问题在闭环评估基准上验证有效性,碰撞率相比IL方法降低3倍提供完整的训练框架,包括奖励设计、动作空间优化、训练策略等。

时间:12/21/2025

每天一个AI小知识什么是多模态学习

每天一个AI小知识什么是多模态学习

多模态学习是人工智能的重要分支,让AI能同时处理文本、图像、音频等多种数据形式。本文系统介绍了多模态学习的概念、发展历程、核心技术(如模态融合、对比学习)、主流模型(CLIP、GPT-4、Gemini等)及其在智能助手、内容创作等领域的应用。文章还探讨了当前面临的模态异质性、数据稀缺性等挑战,并展望了全模态学习、实时理解等未来趋势。多模态学习正推动AI向更接近人类智能的方向发展,同时也引发了对智能本质、人机关系等哲学思考。

时间:12/20/2025

大白话-AI-答疑第8篇-BERT与传统机器学习如贝叶斯在文本分类中的区别及效果对比

大白话-AI-答疑第8篇-BERT与传统机器学习如贝叶斯在文本分类中的区别及效果对比

核心结论:。

时间:12/20/2025

数据挖掘13

数据挖掘13

过多的无关或冗余特征会增加模型复杂度,使模型“记住”训练数据中的噪声,从而在新数据上泛化能力变差。举个例子:如果你要预测一个人是否会贷款违约,那么“信用记录”很重要,“头发颜色”就不重要。保留它们不仅无益,反而有害。比如“年龄”还是“年龄”,不会变成“标准化后的年龄”或“年龄平方”。所以特征子集选择会优先保留那些和任务目标相关的特征。例如:同时包含“年龄”和“出生年份”是冗余的。特征越少,模型训练所需的时间和内存就越少。特征越少,越容易理解模型是如何做出决策的。特征的原始意义保持不变,容易理解和解释。

时间:12/20/2025

DNN案例一步步构建深层神经网络3

DNN案例一步步构建深层神经网络3

人工智能#具身智能#VLA#大模型#AI。DNN案例一步步构建深层神经网络(3)四、对于构建的深层神经网络的应用。

时间:12/19/2025

机器学习笔记

机器学习笔记

人工智能启航

时间:12/19/2025

机器学习-非线性分类器-ANN

机器学习-非线性分类器-ANN

反向传播模型也称作b-p模型,是一种用于前向多层的反向传播学习算法,他可以对组成前向多层网络的各人工神经元之间的连接权值进行不断的修改,从而使前向多层网络能够将输入他的信号变成所期望的输出信息,因此被称作学习方法。因此bp的网络结果是一个前向多层网络。首先把连接权和阈值初始化为较小的非零随机数,然后把有n个连接权值的输入送入网络,经加权运算处理,得到的输出如果与所期望的输出有较大的差别,就对连接权值参数按照某种算法进行自动调整,经过多次反复,直到所得到的输出与所期望的输出间的差别满足要求为止。

时间:12/19/2025

支持向量机SVM

支持向量机SVM

给定训练样本集D={(x1,y1),(x2,y2),…,(xm,ym)}D=\{(x_1,y_1),(x_2,y_2),\dots,(x_m,y_m)\}D={(x1​,y1​),(x2​,y2​),…,(xm​,ym​)},其中yi∈{−1,+1}y_i\in\{-1,+1\}yi​∈{−1,+1}。分类学习最基本的想法就是基于训练集DDD在样本空间中找到一个划分超平面,将不同类别的样本分开。但能将训练样本分开的划分超平面可能有很多,我们应该努力去找到哪一个呢?直观上看,应该

时间:12/19/2025

DNN案例一步步构建深层神经网络二

DNN案例一步步构建深层神经网络二

人工智能#具身智能#VLA#大模型#AI#LLM#Transformer架构#AI技术前沿#Agent大模型#工信部证书#人工智能证书#职业证书。DNN案例一步步构建深层神经网络(二)

时间:12/18/2025

线性代数九线性相关性基与维数

线性代数九线性相关性基与维数

推广到m*n的情况,如果矩阵有n列,rank=r,则矩阵的零空间的维度等于方程Ax=0的自由变量的个数、基础解系的个数n-r。反之,如果矩阵的零空间中不仅仅存在零向量,这意味着可以通过线性组合将其列向量组合成零向量,也即这些向量线性相关。空间的一组基,基向量的个数就是张成的空间的维度,一个空间内可以有很多组基,但每组基所包含的向量的个数一定是相等的,为N。显然,矩阵的列空间的维度和零空间的维度具有对称关系,列空间的维度为rank,而零空间的维度为n-rank。,容易看出,该矩阵的列空间的一组基为。

时间:12/18/2025

教程上新丨微软开源VibeVoice,可实现90分钟4角色自然对话

教程上新丨微软开源VibeVoice,可实现90分钟4角色自然对话

进入Demo运行页面后,将测试视频上传后,在「TexttoConvert」处输入文本,「SpeakerVoice」选项中提供了7种可选择的音色,调整「CFGScale」可以控制语音风格强度,数值越大情感越强。为此,研究团队首创了一种新颖的连续语音分词器,与当前流行的Encodec模型相比,在保持相当性能的前提下,实现了80倍的数据压缩提升,即可实现高达3200×的压缩率(对应7.5Hz帧率),在保障音频保真度的同时,显著提高了长序列处理的计算效率。

时间:12/18/2025

51c自动驾驶合集62

51c自动驾驶合集62

理想最开始的VLM其实就是包含了2个模型,端到端和VLM,也就是所谓的快慢思考,端到端负责快思考,快决策,VLM负责慢思考,然后把结果反馈给端到端,由端到端来完成决策,而VLA就是一个模型思考和决策。现在大部分VLA、VLM的做法,是先有一个语言模型基座,然后在一些图像数据上训练一个插件,把视觉转成语言,再输入到语言模型里。到这,其实整体的架构已经就比较清楚了,端到端是自动驾驶真正由人工进入智能的开始,VLA是端到端基础上进一步加入了语言模型,而世界模型是对空间的理解和重塑,跟前两者是完全不同的东西。

时间:12/18/2025

基于最小二乘法的离散数据拟合

基于最小二乘法的离散数据拟合

本文介绍了最小二乘法,其通过最小化离散数据点的平方残差和来拟合多项式函数。

时间:12/18/2025

周志华机器学习西瓜书七

周志华机器学习西瓜书七

摘要:本文介绍了贝叶斯理论在机器学习中的应用。贝叶斯决策论基于条件风险最小化,构建最优分类器。判别式模型直接建模后验概率,而生成式模型通过联合概率推导后验概率。贝叶斯定理将后验概率分解为先验概率、似然和证据因子。极大似然估计用于参数估计,而朴素贝叶斯分类器假设属性独立,简化联合概率计算。针对概率估计中的零概率问题,采用拉普拉斯修正进行平滑处理。这些方法为概率框架下的分类问题提供了理论基础和实用工具。

时间:12/17/2025

机器学习-线性回归详解

机器学习-线性回归详解

本文系统讲解了线性回归的原理与应用。从一元线性回归的基本形式y=wx+b入手,通过最小化误差平方和推导出参数求解方法。进而扩展到多元线性回归,介绍如何用向量和矩阵表示多特征模型,并详细解析了均方误差等常见损失函数。重点阐述了两种优化方法:正规方程法通过矩阵求导直接计算最优参数;梯度下降法通过迭代逼近最优解。文章通过房价预测等实例,结合数学推导和几何解释,帮助读者深入理解这一基础但重要的机器学习算法。

时间:12/17/2025

人工智能伦理的演进对科技政策有何影响

人工智能伦理的演进对科技政策有何影响

人工智能伦理的演进,正在深刻重塑着科技政策的目标、工具和全球对话的框架。下面这个表格梳理了这种影响在不同维度上的具体体现。

时间:12/17/2025

机器学习逻辑回归

机器学习逻辑回归

逻辑回归是一种用于的统计方法,尽管名称中包含"回归",它通过将线性回归的输出映射到,将预测值转换为概率值(0到1之间),从而进行分类决策。逻辑回归的核心目标是:。

时间:12/16/2025

机器学习算法之逻辑回归下

机器学习算法之逻辑回归下

k取值多少我们就把原来的训练集分为几份,c取某个值的时候每一份依次做验证集,这样就保证了分出去当验证集的数据也能当训练集训练模型,分成几份就会得到几个结果,把结果求平均值就可以作为该c值下的结果。拟合数据无非就是在同一类中挑选俩个数据取中间的一些值,就像我们knn算法中,相同一类在一起那我们在同一类的内部拟合数据自然也就是这类的,拟合数据就是这样一个过程。想法是正确的但是用测试集一点一点的推测c值,这就相当于把测试集当训练集了,这样是不行的,测试集只能用来最后测试,结果是一锤定音的。

时间:12/16/2025

机器学习高阶教程2优化理论实战BERT用AdamW强化学习爱SGD

机器学习高阶教程2优化理论实战BERT用AdamW强化学习爱SGD

优化器选择没有“银弹”,精准匹配场景才是关键。本文通过三大实战案例,直击算法工程师的调参困境:为何BERT必须用AdamW?因其解决了L2正则与自适应学习率的“耦合冲突”,避免参数过度衰减。为何强化学习偏爱SGD?其动量机制能抵御高方差梯度噪声,而Adam的“过度适应”反成弱点。为何大语言模型依赖梯度累积?它用时间换空间,在小显存下模拟大Batch的稳定性。核心在于理解优化器底层逻辑,根据数据噪声、内存限制与梯度特性做出明智选择。

时间:12/16/2025

GPT-Neo开源大型自回归语言模型的实现与影响

GPT-Neo开源大型自回归语言模型的实现与影响

GPT-Neo是人工智能开源运动中的一个里程碑式项目。它成功地回应了业界对GPT-3闭源策略的关切,通过社区协作的方式,证明了构建大规模、高性能开源语言模型的可行性。虽然在绝对性能上未能超越规模最大的私有模型,但GPT-Neo及其衍生模型在性价比、可访问性和可定制性方面具有无可比拟的优势。它不仅在多项基准测试中展现了强大的竞争力,更通过实际研究案例证明了自己作为下游任务基石的实用价值。更重要的是,GPT-Neo为整个研究社区注入了活力,推动了透明、协作的AI发展范式。

时间:12/15/2025

上一页
12345...28
下一页第 1 / 28 页