MUWU's Blog

Boilerplate of Hux Blog

Paper Reading Schedule

迫使自己系统性的阅读更多论文

Schedule 经典工作 [✓] ImageNet Classification with Deep Convolutional Neural Networks (2012) [✗] Generative Adversarial Nets (2014) [✓] Deep Residual Learning for Image Recog...

sequence model

Transformer

Self-Attention q: Question k: Key v: Value Q*K:how good is this key (eg. “Jane”) an answer to the question 表示当前的q和每个word(key)之间的关联程度。(相加总和为1) v:各自的相关程度(Q和K来表示,且相加为1)乘以各自自己的value Multi-H...

sequence model

虚拟模型

专业术语 第i个训练样本的第t个单词 第i个训练样本的长度 RNN 架构 RNN 语言模型 language model 语言模型 语言模型其实就是看一句话是不是正常人说出来的正常的话 改进: 元模型(n-gram model) 机器翻译、语音识别得到若干候选之后,可以利用语言模型挑一个尽量靠谱的结果。 GRU gamma (Γ)表示我们有...

深度学习笔记2

notebook2

专业术语 神经网络 Neural Network 神经网络其实就是同一个方法的多次迭代? hidden layer的shape = [当前层次个数, 前一层个数] ? 把上一层神经元的结果当成x进行下一层神经元的计算(导致每层的特征数量不一样) (input and output)矩阵的纵向(第一维)代表隐藏单元,横向表示数据样本个数 【X, Z, A, Y】(PS. a0的隐...

深度学习课程笔记

专业术语 ReLU: Rectified Linearar Unite (线性整流函数) 类似前面平坦的直线,后面有斜率的直线 变量m 指代amount of labeled data 神经网络和机器学习间的区别 在更多数据集上能发挥出更好的作用。 变量n 输入特征向量x的维度 sigmoid the output of a neuron is a =...

深度学习课程笔记

专业术语 ReLU: Rectified Linearar Unite (线性整流函数) 类似前面平坦的直线,后面有斜率的直线 变量m 指代amount of labeled data 神经网络和机器学习间的区别 在更多数据集上能发挥出更好的作用。 变量n 输入特征向量x的维度 sigmoid loss function The loss fun...

dynamic process

dynamic process

动态规划 动态规划的核心:寻找到转移方程(将问题进行层次化解剖, 将一个大问题分级为一步一步的小问题,并注意考虑这一步的停止条件) 动态规划的三种模式: 递归 备忘录 递推 动态规划使用条件: 最优子结构 重叠子问题(如果没有重叠 => 暴力搜索/递归) 基本模型: 线性模型(又可分为单情况迭代以及多情况迭代【可能分奇偶】): ...

:)

hello world

“Just a hello here” My first Post :) 一次小记🤗 说实话我真没想到我会开一个blog,这件事的开端纯属巧合。 那天,本来是准备好好学习一下动态规划的,有了一点感悟后就寻思着找个地方写下来,既能当作自己的笔记又能整理一下思路。 如果是在以前,我肯定是用OneNote记录了,但那天不知怎么地,就突然想起了以前搞过但从来没有弄明白了github p...

Welcome to MUWU Blog

"Hello World, Hello Blog"

“Yeah It’s on. ” 前言 MUWU 的 Blog 开通了。

Rake Test

Hello Rake

这是我真正的第一个博客 你好世界 : )