The archives of L-SY group meeting

2024年秋季学期

2024.12.17

2024.12.10

2024.12.3

第一篇文章做的是持续TTA的设定。文章通过直接在图像像素层面构造矩形prompt作为可变参数,并和输入图像聚合送入冻结的模型中得到输出。作者设计了两种prompt,一个用教师-学生网络,通过交叉熵更新学习域知识;另一个多了一项正则限制域敏感参数的更新以保证域泛化知识保留。第二篇是数据集蒸馏的经典论文,通过课程梯度匹配的方式实现数据集蒸馏。

2024.11.26

2024.11.19

2024.11.12

简要介绍了推荐系统的基础架构:召回->粗排->精排->重排,然后分别展示了召回和精排的两个经典模型。谷歌在召回双塔模型的基础上引入对比学习扩充了样本量,解决了长尾表征的问题。阿里利用attention对用户序列建模,设计了DIN。

2024.11.6

2024.10.29

2024.10.21

介绍了EcoTTA,一篇研究持续TTA过程中如何减少内存消耗,从而能在端侧设备上实现持续适应。文章借鉴了TinyTL、EATA等一系列工作,通过将源模型的encoder分块,并在每一块之间插入专属的元网络(包括一层BN和一个Conv的残差连接),实现模型激活值内存占用大幅缩减。设计的损失函数包括经典的熵最小化,以及一个子蒸馏的正则项用于防止模型遗忘。

2024.10.14

2024.9.23

2024.9.9


2024年春季学期

写作参考材料