细数最近NLP领域的热门关键词,transformer、多模态、预训练,还有不得不提的对比学习。
本质上说,比学习主要是通过对比,拉近相似样本之间的距离,推远不相似样本之间的距离。而相似样本的构造,又可以分为有监督与无监督两种。随着对比学习技术的大火,有越来越多的研究者在思考,Contrastive Learning(除了让这个方向的研究越来越卷)还能带来什么?
当然,对比学习在自然语言中备受关注。它使用成对的训练数据增强为具有良好的表示能力的编码器构建分类任务。也可能是因为对比学习研究的持续热度,2202年以来文本表示方向突然就卷起来了,SOTA刷的嗖嗖的,卑微的科研er表示,上一个工作才开始熟悉,新的SOTA就狠狠砸过来……
好,你厉害,我读还不行吗。
作为近年来NLP最火的方向之一,对比学习吸引了足够多的关注。纵观今年各大顶会上的最新论文,我们可以观察到对比学习出现的频率明显增高,并且各种改进也层出不穷,一句话就是,开始卷起来了!
NLP发展至今,已经延伸出很多的子方向、子领域,单单从顶会论文的收录情况来看,很难不让人有这样的疑惑:感觉所有方向都有人做过了,好不容易有了一个idea,上网一搜,早已有人用来发了论文。
对于已然入坑的NLPer,怎么样才能高效做科研发论文抢占idea?
12月28日,我们邀请哈工大计算机博士、SCI期刊审稿人Kimi老师,综合讲解当今NLP最火的方向:Contrasive learning。同时以罪名预测、情感分析为例,展开讲解对比学习的具体应用。
如果你想做科研,那么通过这次课你可以学习顶会论文的创新点套路和idea启发,如果你想进军工业界,那么你更要来听听对比学习在具体任务中如何实现。
想要快速发论文有两点至关重要。
1.紧跟风口。
想发文章最容易的方法就是紧跟风口,顺着领域内的研究趋势确定自己的方向,毕竟在热门领域内,创新点和idea远比其他非热门领域多。
2.有一位有经验有能力的前辈指导。
大家都在努力的设计新网络、新策略、新training算法,只要能够在某一问题上做到一个很好的performance,论文就水到渠成。而想要快速达到,来自前辈的指点不可或缺。
所以,要解决的问题就是:
1.找到风口。
2.找到领域内的大神做导师。
(文末免费领福利)
创新点和idea不可能凭空生成,好的performance也绝不可能一蹴而就。
12月28日,沃恩智慧邀请金牌讲师Kimi老师,带大家吃透Contrasive learning的本质原理;掌握Contrasive learning如何应用到其他下游任务上;并且掌握SCI顶刊、顶会的写作套路以及顶刊实验方法论!
由在NLP领域耕耘多年的科研大神带你精读大神最新顶会论文,作为有多篇顶会论文在手的科研大神,可充分把握计算机视觉发展的风向标。
老师将逐句分析论文中各段落、语句之间的关系,算法创新模型与科研论文创作技巧并学,以深厚的顶会、顶刊英文论文写作功力和深耕多年的科研经验带领大家层层闯关。
针对论文,老师除了最基本的算法模型讲解外,更将从论文第一作者的角度深入剖析论文价值,并讲解论文泛读/精读的方法策略、写作方法策略、复现思路、代码分析……
(文末免费领取福利)
作为日常为了论文而忙碌的科研人,小编知道大家一定很需要一些资料。因此,小编精心整理了一份超过20G的AI顶会论文大礼包!包含最新顶会论文、书籍等资料,以及引文论文写作指导保姆级资料,从文献阅读到论文写作,全部帮你整理好~
-END-
本文来自微信公众号“机器学习与AI生成创作”(ID:AI_bryant8)。大作社经授权转载,该文观点仅代表作者本人,大作社平台仅提供信息存储空间服务。