MATLAB算法实战应用案例精讲-【人工智能】对比学习(概念篇)(补充篇)

本文深入探讨对比学习在人工智能领域的应用,特别是在文本表示模型中的作用。通过对对比学习的原理、损失函数、算法思想和前沿研究的阐述,揭示其如何通过拉近相似样本和拉开不相似样本,学习到高质量的语义表示,提升模型在半监督学习等任务中的性能。此外,介绍了多层对比学习在跨模态检索中的应用,以及如何构建和评价表示空间的质量,强调了构建优质对比样本的关键性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

前言

几个高频面试题目

基于对比学习(ContrastiveLearning)的文本表示模型【为什么】能学到文本【相似】度?

为什么对比学习能学到很好的语义相似度?

那么如何评价这个表示空间的质量呢?

知识储备

监督学习和非监督学习

算法原理

什么是对比学习

对比学习过程步骤

算法思想

前置任务

颜色变换

​编辑

几何变换

基于上下文的

基于帧的

 未来预测

视图预测 View Prediction (Cross modal-based)

确定对的前置任务

对比学习一般泛式

对比损失

原始对比损失

三元组损失(triplet loss)

InfoNCE损失

 对比方法如何工作的?

Deep InfoMax

Contrastive Predictive Coding

 对比学习在NLP文本表示的一些方法

一. 基于BERT的句子表示

二. 基于对比学习的BERT表示学习

对比学习论文

NCL

 ICL

RGCL 

MCCLK 

MIDGN 

PCL

BalFeat

MiCE

i-Mix

 Contrastive Learning with Hard Negative Samples

 

LooC

CALM

 Support-set bottlenecks for video-text representation learning

 SpCL

SimCLR V2

 Hard Negative Mixing for Contrastive Learning

Supervised Contrastive Learning

Contrastive Learning with Adversarial Examples

LoCo

What Makes for Good Views for Contrastive Learning?

GraphCL

ContraGAN 

 算法拓展

多层次对比学习的跨模态检索

方法

编码器

动量跨模态对比(MCC)

层次跨模态对比匹配(HCM)

实验

 应用场景

半监督学习


前言

自监督学习(Self-supervised learning)最近获得了很多关注,因为其可以避免对数据集进行大量的标签标注。它可以把自己定义的伪标签当作训练的信号,然后把学习到的表示(representation)用作下游任务里。最近,对比学习被当作自监督学习中一个非常重要的一部分,被广泛运用在计算机视觉、自然语言处理等领域。它的目标是:将一个样本的不同的、增强过的新样本们在嵌入空间中尽可能地近,然后让不同的样本之间尽可能地远。

几个高频面试题目

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

林聪木

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值