TechBlog
首页分类标签搜索关于
← 返回分类列表
加载中...

© 2025 TechBlog. All rights reserved.

分类

共 5 篇文章
Language-Models-are-Few-Shot-Learners,GPT-3详细讲解

Language-Models-are-Few-Shot-Learners,GPT-3详细讲解

Language Models are Few-Shot Learners,GPT-3详细讲解

时间:03/14/2025

仅仅使用pytorch来手撕transformer架构3编码器模块和编码器类的实现和向前传播

仅仅使用pytorch来手撕transformer架构3编码器模块和编码器类的实现和向前传播

往期文章:仅仅使用pytorch来手撕transformer架构(1):位置编码的类的实现和向前传播最适合小白入门的Transformer介绍仅仅使用pytorch来手撕transformer架构(2):多头注意力MultiHeadAttention类的实现和向前传播1.编码器模块的实现这段代码实现了一个Transformer编码器模块(Transformer Block),它是Transformer架构的核心组件之一。Transformer架构是一种基于自注意力机制(Self-Attention)的

时间:03/11/2025

仅仅使用pytorch来手撕transformer架构1位置编码的类的实现和向前传播

仅仅使用pytorch来手撕transformer架构1位置编码的类的实现和向前传播

max_len是一个重要的超参数,它定义了模型能够处理的最大序列长度。选择合适的max_len值需要考虑数据集的特性、模型的容量和计算资源。在实际应用中,可以通过分析数据集的统计特性来确定max_len的值。类的作用是为输入的嵌入向量添加位置信息,使得 Transformer 模型能够感知序列中每个元素的位置。位置编码通过正弦和余弦函数生成,能够捕捉到位置信息,并且可以处理比训练时序列长度更长的序列。

时间:03/09/2025

conda常用指令整理持续更新...

conda常用指令整理持续更新...

此笔记涵盖conda常用指令,pip、命令行等常用指令。

时间:03/09/2025

Denoising-as-Adaptation-Noise-Space-Domain-Adaptation-for-Image-Restoration

Denoising-as-Adaptation-Noise-Space-Domain-Adaptation-for-Image-Restoration

尽管基于学习的图像恢复方法取得了重大进展,但由于合成数据训练造成的巨大领域差距,它们仍然难以对现实世界场景进行有限的泛化。现有的方法通过改进数据合成管道、估计退化核、采用深度内部学习以及执行域自适应和正则化来解决这个问题。先前的域自适应方法试图通过在特征或像素空间中学习域不变知识来弥合域差距。然而,这些技术往往难以在稳定紧凑的框架内扩展到低级视觉任务。在本文中,我们证明了使用扩散模型通过噪声空间进行域自适应是可能的。

时间:03/09/2025