TechBlog
首页分类标签搜索关于
← 返回分类列表
加载中...

© 2025 TechBlog. All rights reserved.

分类

共 34 篇文章
Mem0-使用案例学习总结-记忆化应用结构

Mem0-使用案例学习总结-记忆化应用结构

本文介绍了一个完全本地化的Mem0应用实现方案,使用Chroma作为向量数据库,Ollama提供LLM和Embedding能力。方案包含四个步骤:安装依赖、准备本地模型、编写示例代码和运行程序。配置中使用llama3.2作为LLM模型,nomic-embed-text作为嵌入模型,所有数据持久化存储在本地文件中。该方案无需外部服务,仅依赖Python环境和Ollama,实现了轻量级、可本地运行的记忆管理功能,适合开发和单机部署场景。

时间:10/26/2025

从零搭建-RAG-智能问答系统-6Text2SQL-与工作流实现数据库查询

从零搭建-RAG-智能问答系统-6Text2SQL-与工作流实现数据库查询

本文介绍了如何构建基于RAG的Text2SQL数据库智能查询系统。该系统通过自然语言理解、语义解析和SQL生成技术,让非技术用户也能轻松查询结构化数据库。文章详细解析了Text2SQL的核心功能、应用场景及技术挑战,并提出了工作流解决方案来优化流程管理。通过五个核心模块(数据库连接、向量存储、工作流调度、Text2SQL生成和前端交互)的代码实现,展示了完整的系统搭建过程。最后,文章指出了SQL语法检查、多轮对话优化等后续改进方向,为构建更强大的AI数据库查询系统提供了思路。

时间:10/23/2025

分布式与长序列attention

分布式与长序列attention

最近学习了一些长序列场景下attention的并行方法,所以整理一下。

时间:10/16/2025

从零搭建-RAG-智能问答系统3聊天信息持久化和登录注册

从零搭建-RAG-智能问答系统3聊天信息持久化和登录注册

本章成果数据持久化:对话记录从 “临时存储” 升级为 “数据库持久化”,支持历史会话管理。用户隔离:通过登录注册和 JWT 认证,实现了不同用户的对话数据隔离,保障数据安全。下一章预告会话管理优化:支持会话重命名、删除会话。消息加载优化:实现消息分页(避免大量消息加载缓慢)。权限控制:添加管理员角色,支持文档权限分配(如某些文档仅特定用户可访问)。如果你在开发过程中遇到任何问题,欢迎在评论区留言讨论!

时间:10/12/2025

AI-Agents-with-n8n-10-自动化创意路线图

AI-Agents-with-n8n-10-自动化创意路线图

AI Agents with n8n: 10+ 自动化创意路线图

时间:09/08/2025

ModelScope概述与实战

ModelScope概述与实战

概述:Web、模型下载及使用、MS Hub、MS-SWIFT、MS-EvalScope、MS-Agent、数据集

时间:09/06/2025

从Online-Softmax到FlashAttention

从Online-Softmax到FlashAttention

从Online Softmax到FlashAttention

时间:03/16/2025

RSOneRec快手-生成式推荐模型

RSOneRec快手-生成式推荐模型

本文提出了一种名为 OneRec 的统一生成式推荐框架,旨在替代传统的多阶段排序策略,通过一个端到端的生成模型直接生成推荐结果。OneRec 的主要贡献包括:编码器-解码器结构:采用稀疏混合专家(MoE)架构扩展模型容量,提升对用户兴趣的建模能力。会话式生成方法:与传统的逐点预测不同,OneRec 提出会话式生成方法,生成整个推荐列表,更好地捕捉上下文信息。迭代偏好对齐模块:结合直接偏好优化(DPO),通过奖励模型(RM)生成偏好数据,优化生成结果。实验表明,OneRec 在大规模工业数据集

时间:03/15/2025

ICLR2025-SLMRec-重新思考大语言模型在推荐系统中的价值

ICLR2025-SLMRec-重新思考大语言模型在推荐系统中的价值

问题背景:序列推荐(SR)任务旨在预测用户可能的下一个交互项目。近年来,大型语言模型(LLMs)在SR系统中表现出色,但它们巨大的规模使得在实际平台中应用变得低效和不切实际。研究动机:论文探讨了在SR领域中LLMs的必要性,以及是否存在模型规模和性能之间的不一致性。研究发现LLMs的许多中间层是冗余的。方法提出:基于上述发现,论文提出了一种名为SLMRec的方法,该方法采用简单的知识蒸馏技术来增强小型语言模型(SLMs)在SR任务上的性能。实验设计:论文在大规模行业数据集上进行了广泛的实验,以评

时间:03/15/2025

探索Maas平台与阿里-QWQ-技术AI调参的魔法世界

探索Maas平台与阿里-QWQ-技术AI调参的魔法世界

本文介绍了蓝耘 Maas 平台在人工智能领域的表现及其核心优势,包括强大的模型支持、高效的资源调度和友好的操作界面。文章还探讨了蓝耘 Maas 平台与阿里 QWQ 技术的融合亮点及应用拓展实例,并提供了调参实战指南,最后对蓝耘 Maas 平台的未来发展进行了展望。

时间:03/15/2025

具身沟通机器人和人类如何通过物理交互进行沟通

具身沟通机器人和人类如何通过物理交互进行沟通

人们擅长适应和开发新的沟通协议,因此,我们应该更多地关注 pHRI 中具身沟通的涌现,而不是复制熟悉的 pHRI 沟通规范。在某些场景中,它可以提供反馈。尽管这种具身沟通方式能够在特定任务的限制内实现成功的协作,但在无法预测的场景中进行有效的协作将需要人机对话——即基于协作伙伴的心理模型和交互历史进行的多模态信息交换——并且安全地融入间歇性物理接触。1. 持续适应和安全保证: 随着数据驱动方法的学习能力的不断提高,我们需要更多的可证明的安全界限,这些安全界限不会不必要地约束人机交互或限制整体性能。

时间:03/15/2025

ollama-API-本地调用

ollama-API-本地调用

前提条件,ollama 已经启动了模型,查看 ollama 中的 model 名称。使用 openai 调用。

时间:03/14/2025

学习笔记LLM技术基础

学习笔记LLM技术基础

大模型训练流程,Scaling Law,涌现能力的讨论

时间:03/14/2025

Language-Models-are-Few-Shot-Learners,GPT-3详细讲解

Language-Models-are-Few-Shot-Learners,GPT-3详细讲解

Language Models are Few-Shot Learners,GPT-3详细讲解

时间:03/14/2025

RagFlowDeepseek构建个人知识库

RagFlowDeepseek构建个人知识库

注意,ragflow 镜像有多个不同的大小,默认的是v0.17.2-slim,区别如下,主要是包不包含embedding模型的区别,我选的默认的,因为占用小,并且我后续使用调用api的方式去配置embedding模型,所以就选,默认的。我们可以看到已经引用到上传的pdf了,点击引用的标识,可以看到引用的内容出自哪里。查看模型填入的名称,如果是直接下载的软件包安装的,打开终端输入以下命令查看。这里直接调用硅基流动的api,下面的博客有注册的方法。这个NAME下面的就是需要输入的名称。

时间:03/13/2025

笔记一下RAG-专题基础学习

笔记一下RAG-专题基础学习

检索增强生成(RAG)是指对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。大型语言模型(LLM)用海量数据进行训练,使用数十亿个参数为回答问题、翻译语言和完成句子等任务生成原始输出。在 LLM 本就强大的功能基础上,RAG 将其扩展为能访问特定领域或组织的内部知识库,所有这些都无需重新训练模型。这是一种经济高效地改进 LLM 输出的方法,让它在各种情境下都能保持相关性、准确性和实用性。CSVLoader接受一个csv_args。

时间:03/13/2025

大模型系列llama.cpp本地运行大模型

大模型系列llama.cpp本地运行大模型

上一篇链接:我们讲了ollama本地运行大模型,这里我们介绍另一种本地运行大模型的方法:llamacpp。

时间:03/12/2025

Kaiming-Uniform-初始化神经网络权重初始化的优雅解决方案

Kaiming-Uniform-初始化神经网络权重初始化的优雅解决方案

Kaiming 初始化通过分析网络的方差传播,提出了一种基于层输入和输出维度的初始化方法,确保信号在深层网络中的稳定传递。

时间:03/11/2025

langchain入门使用langchain调用本地部署的大模型以llama.cpp以及ollama为例

langchain入门使用langchain调用本地部署的大模型以llama.cpp以及ollama为例

langchain入门教程第二篇,使用本地部署的大模型(包含ollama以及llama.cpp)

时间:03/11/2025

python-LLM工具包

python-LLM工具包

http://mirrors.aliyun.com/pypi/simple/https://modelscope.cn/docs/models/download

时间:03/10/2025

vscodecursor配置python环境,含远程调试

vscodecursor配置python环境,含远程调试

一文教你用AI编程工具Cursor的各种常用功能

时间:03/10/2025

Scaled_dot_product_attentionSDPA使用详解

Scaled_dot_product_attentionSDPA使用详解

在学习huggingFace的Transformer库时,我们不可避免会遇到scaled_dot_product_attention(SDPA)这个函数,它被用来加速大模型的Attention计算,本文就详细介绍一下它的使用方法,核心内容主要参考了torch.nn.functional中该函数的注释。

时间:03/09/2025

OpenManus介绍及本地部署体验

OpenManus介绍及本地部署体验

OpenManus,由 MetaGPT 团队精心打造的开源项目,于2025年3月发布。它致力于模仿并改进 Manus 这一封闭式商业 AI Agent 的核心功能,为用户提供无需邀请码、可本地化部署的智能体解决方案。换句话说,OpenManus 就像一位全能的数字助手,能够在你的本地设备上运行,随时听候差遣,完成各种复杂任务。它的出现,打破了技术领域的高墙,让每一位开发者都有机会站在同一起跑线上,快速实现诸如代码生成、数据分析、网络信息检索等复杂任务的自动化处理。

时间:03/09/2025

大模型架构记录3-提示工程

大模型架构记录3-提示工程

根据下面的上下文回答问题。保持答案简短且准确。如果不确定答案,请回答“不确定答案”。Teplizumab起源于一个位于新泽西的药品公司,名为Ortho Pharmaceutical。在那里,科学家们生成了一种早期版本的抗体,被称为OKT3。最初这种分子是从小鼠中提取的,\能够结合到T细胞的表面,并限制它们的细胞杀伤潜力。在1986年,它被批准用于帮助预防肾脏移植后的\器官排斥,成为首个被允许用于人类的治疗性抗体。问题:OKT3最初是从什么来源提取的?"""OKT3最初是从小鼠中提取的。

时间:03/08/2025

上一页
12
下一页第 1 / 2 页