NJU1healer的个人博客分享 http://blog.sciencenet.cn/u/NJU1healer

博文

按标题搜索
Pytorch 分类二维矩阵图像和一维向量的方法及常用函数总结
2020-10-23 14:42
(一)一维、二维常使用模块方法 二维学习中,主要使用的是: self.conv1 = nn.Conv2d(in_channels=1, out_channels=5, kernel_size=7, stride=2, padding=1) self.fc1 = nn.Linear(2432,512) F.max_pool2d(self.conv1(x), 2) 一维 self.conv1 = nn.Conv1d(in_channels=1, out_channels=5, kernel_size=7, s ...
个人分类: Pytorch|3614 次阅读|没有评论
PyTorch的Tensor详解创建以及nn.ReLU与F.ReLU的区别
2020-10-23 14:33
(一)PyTorch的Tensor(张量) 这一部分详细参考博客: PyTorch的Tensor(张量) 主要包括:Tensor与Variable与区别、张量的创建(张量的创建有三大方法,第一类是直接创建,第二类是依据数值创建,第三类是依据概率创建)。 (二)PyTorch之nn.ReLU与F.ReLU的 区 别 import torch.nn as nn im ...
个人分类: Pytorch|3283 次阅读|没有评论
log_softmax、softmax和的nll_loss、nn.CrossEntropy区别(Pytorch学习笔记)
2020-10-22 15:27
log_softmax 能够解决函数overflow和underflow,加快运算速度,提高数据稳定性。 使用log_softmax。 一方面是为了解决溢出的问题,第二个是方便CrossEntropyLoss的计算。不需要担心值域的变化。 如上图, 因为softmax会进行指数操作,当上一层的输出,也就是so ...
个人分类: Pytorch|6835 次阅读|没有评论
Matlab中计算函数运行时间的三种方法及判断新建文件夹
2020-10-22 14:24
(一)运行时间 1、tic和toc组合   计算daotic和toc之间那专段程序之间的属运行时间,它的经典格式为 :   tic   函数   toc   复制函数代码,当代码遇到tic时Matlab自动开始计时,运行到toc时自动计算此时与最近一次tic之间的时间。 2、etime(t1,t2)并和clock配合   计算t1,t2之间的时 ...
个人分类: matlab|3360 次阅读|没有评论
Pytorch中nn.Conv1d、Conv2D与BatchNorm1d、BatchNorm2d函数
2020-10-22 10:23
此处mark一下图像处理中常见的Conv和BatchNorm操作,提供参考链接!! (一)Conv1D和Conv2D实现 (1) pytorch之nn.Conv1d详解 (建议先看这个) (2)进一步查看此: PyTorch中的nn.Conv1d与nn.Conv2d (Pytorch库) &nbs ...
个人分类: Pytorch|15172 次阅读|没有评论
轻松理解局部连接和权值共享
2020-10-21 21:09
卷积神经网络两大核心思想: 1.网络局部连接(Local Connectivity) 2.卷积核参数共享(Parameter Sharing) 两者的一个关键作用就是减少参数数量,使运算变得简洁、高效,能够在超大规模数据集上运算。下面用图直观展示!!! (1)权值共享 (2)局部连接 ...
个人分类: 机器学习|8921 次阅读|没有评论
[转载]深度学习中IU、IoU(Intersection over Union)的概念理解
2020-10-18 16:12
IoU(Intersection over Union) Intersection over Union是一种测量在特定数据集中检测相应物体准确度的一个标准。我们可以在很多物体检测挑战中,例如PASCAL VOC challenge中看多很多使用该标准的做法。 通常我们在 HOG + Linear SVM object detectors 和 Convolutional Neural Network detectors (R-CNN, Faster R-CNN, ...
个人分类: 机器学习|2725 次阅读|没有评论
深度学习中的logits
2020-10-18 15:40
(1)总结来说就是: f(wx+b)之后的输出,没有归一化的输出值,作为logits。 将logits进行softmax归一化,得到最后的结果。 (2)具体来说是: 也可以这么理解:logits与 softmax都属于在输出层的内容, logits = tf.matmul(X, W) + bias 再对logits做归一化处理,就用到了softmax: Y_pred = tf.nn.soft ...
个人分类: 机器学习|6988 次阅读|没有评论

本页有 2 篇博文因作者的隐私设置或未通过审核而隐藏

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-20 09:57

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部