深度学习:1×1 卷积详解

文章正文
发布时间:2025-11-25 00:48

本周对 LSTM模型利用PyTorch进行了复现,将其实现与数学形式进行了逐条对应,清晰、重点地理解门控机制与细胞状态与其在时序场景下的应用。在 2017 年 Transformer 架构(Attention 机制)横空出世之前,LSTM 曾是序列建模(NLP、语音、时序)的绝对王者。而在 2025 年的今天,它不再是唯一的 SOTA,但依然是非常棒的轻量级选择。本周阅读了一些时序预测领域的工作,发现LSTM在时序预测领域仍然相当活跃,在本周对LSTM进行了数学原理的复习、代码的简单复现和其应用场景的分析。

首页
评论
分享
Top