||
近年来,随着卷积神经网络(CNN)等深度学习技术的飞速发展,人工智能迎来了第三次发展浪潮,AI技术在各行各业中的应用日益广泛。
第一章:注意力(Attention)机制
1、注意力机制的背景和动机
2、注意力机制的基本原理
3、注意力机制的主要类型
4、注意力机制的优化与变体
5、注意力机制的可解释性与可视化技术
第二章:自然语言处理(NLP)领域的Transformer模型
1、Transformer模型的提出背景
2、Transformer模型的进化之路
3、Transformer模型拓扑结构
4、Transformer模型工作原理
5、BERT模型的工作原理
6、GPT系列模型
第三章:计算视觉(CV)领域的Transformer模型
1、ViT模型
2、Swin Transformer模型
3、DETR模型
第四章:时间序列建模与预测的大语言模型
1、时间序列建模的大语言模型技术细节
2、时间序列建模的大语言模型训练
3、Time-LLM模型详解
4、基于TimeGPT的时间序列预测
第五章:目标检测算法
1、目标检测任务与图像分类识别任务的区别与联系。
2、两阶段
3、一阶段目标检测算法
第六章:目标检测的大语言模型
1、基于大语言模型的目标检测的工作原理
2、目标检测领域的大语言模型概述
第七章:语义分割的大语言模型
1、基于大语言模型的语义分割的工作原理
2、语义分割领域的大语言模型概述
第八章:LlaVA多模态大语言模型
1、LLaVA的核心技术与工作原理(
2、LLaVA与其他多模态模型的区别
3、LLaVA的架构与训练
4、LLaVA的典型应用场景
第九章:物理信息神经网络
1、物理信息神经网络的背景
2、PINN工作原理
第十章:生成式模型
1、变分自编码器VAE
2、生成式对抗网络GAN
3、扩散模型Diffusion Model
4、跨模态图像生成DALL.E
第十一章:自监督学习模型
1、自监督学习的基本概念
2、经典的自监督学习模型的基本原理、模型架构及训练过程
3、自监督学习模型的Python代码实现
第十二章:图神经网络
1、图神经网络的背景和基础知识
2、图的基本概念和表示
3、图神经网络的工作原理
4、图卷积网络的工作原理。
5、图神经网络的变种和扩展
第十三章:强化学习
1、强化学习的基本概念和背景
2、Q-Learning
3、深度Q网络
第十四章:深度学习模型可解释性与可视化方法
1、什么是模型可解释性?为什么需要对深度学习模型进行解释?
2、可视化方法有哪些?
3、类激活映射CAM)、梯度类激活映射GRAD-CAM、局部可解释模型-敏感LIME、等方法原理。
4、t-SNE的基本概念及使用t-SNE可视化深度学习模型的高维特征。
第十五章:神经架构搜索
1、NAS的背景和动机
2、NAS的基本流程
3、NAS的关键技术
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2026-5-17 19:32
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社