• 整体网络架构p22


    1.在这里插入图片描述
    两次卷积,一次池化。得到一个三维特征图,然后让三维的特征图,三个值进行相乘拉成特征向量,把得到的结果需要靠全连接层。
    带参数计算才算一层
    算conv的个数+FC全连接层=就得到卷积神经网络的层数
    FC:全连接层

    2.在这里插入图片描述

    3.reset网络(残差网络)
    H(x)=F(x)+x
    F(X)如果做的不好就不要了,令它为0;x是原本就有的映射。
    在这里插入图片描述
    残差网络可以降低错误率。

    4.感受野
    (1)通过堆叠多个33的卷积核来代替大尺度卷积核(减少所需参数)
    比如某篇论文提到,通过堆叠两个3
    3的卷积核替代55的卷积核,堆叠三个33的卷积核替代7*7的卷积核。
    (2)感受野定义:在卷积神经网络中,决定某一层输出结果中一个元素所对应的输入层区域的大小,被称作感受野。输出feature map上的一个单元对应输入层上的区域大小。
    在这里插入图片描述
    5.在这里插入图片描述
    在这里插入图片描述

    6.递归神经网络(RNN)
    一般CNN适用于CV(视觉)
    一般RNN适用于NLP(自然语言处理)
    RNN:前一个时刻训练出的中间结果特征,也会对后一个时刻产生影响。

    在这里插入图片描述

    如果输入的是一个单词,比如x=i ,x1=am, xt=china
    我们可以把单词转换成3维向量。(将单词转换成特征向量,然后根据时间顺序进行排列)
    RNN的记忆能力强大,能把之前所有的结果记录下来,可能结果会产生误差。
    LSTM网络:忘记一些没必要的特征。
    在这里插入图片描述

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    5.将词文本转换成词向量
    (1)只要有了向量就可以用不同的方法计算相似度
    (2)数据的维度越高,能提供的信息也越多,从而计算结果的可靠性更值得信赖。
    (3)相似的词在特征表达中比较相似。

    在词向量中输入和输出分别是什么?
    (1)通常是在词的层面上来构建特征,word2vec就是把词换成向量。
    (2)相似的词在特征表达中比较相似,所以词的特征也是有实际意义的。
    (3)构建训练数据,
    CBOW:
    Skipgram:
    
    ![在这里插入图片描述](https://img-blog.csdnimg.cn/0c391915dc264ed0a4f736d952f9e5bd.jpeg#pic_center)
    如果语料库稍微大一些,可能的结果会很多,最后一层相当于softmax,计算会耗时,
    方案1:输入两个单词,看他们是不是前后对应的输入和输出,相当于二分类任务
    方法2:把输入的两个单词都当成输入,看原本应该是输出的那个单词符合正确的结果的概率是多少。
    
    (2)负样本(负采样模型):加入一些没有在输出语料库的单词,构造负样本。负采样样本:一般取参数5.
    
    1)初始化词向量矩阵
    
    
    
    
    
    
        
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
  • 相关阅读:
    Ubuntu18 vscode配置Ceres的调试
    Java final关键字的简介说明
    C# 泛型详解(泛型类,方法,接口,委托,约束,反射 )
    Seata的这些安保机制是否会让你更放心
    从数字化到智能化再到智慧化,智慧公厕让城市基础配套更“聪明”
    SSM - Springboot - MyBatis-Plus 全栈体系(二十七)
    生产管理:专项生产业务管理系统
    Python ChatGPT API 新增的函数调用功能演示
    vue3+scss开启写轮眼
    阿里云ASK试用心得(避坑贴)
  • 原文地址:https://blog.csdn.net/zsysingapore/article/details/133549279