您还没有登录,请登录后阅读
机器学习算法与自然语言处理之精选干货|近半年干货目录汇总
61篇
10人在读
公众号:机器学习算法与自然语言处理
关注公众号
目录
摘录
- 机器学习算法与自然语言处理之精选干货|近半年干货目录汇总
机器学习算法与自然语言处理之精选干货|近半年干货目录汇总
- 换个角度“聊”线性代数(一)
- 形象的解释神经网络激活函数的作用是什么?
- 通俗理解神经网络BP反向传播算法
- 为什么梯度反方向是函数下降最快的方向?
- 浅析神经网络为什么能够无限逼近任意连续函数?
- 详解梯度下降法的三种形式BGD,SGD以及MBGD
- 一文搞懂k近邻(k-NN)算法(一)
- 完结篇|一文搞定k近邻算法(k-NN)算法(二)
- 通俗详解softmax函数及其求导过程
- 大白话解释模型产生过拟合的原因
- 通俗讲解平方损失函数平方形式的数学解释?
- 朴素贝叶斯分类实例-单词纠正问题
- 谈谈准确率(P值)、召回率(R值)及F值
- 浅析神经网络中一点优化知识
- 可视图讲解神经元w,b参数的作用
- 聊聊传统算法系统和机器学习系统的一点不同
- 通俗理解信息熵
- 通俗理解条件熵
- 通俗理解决策树算法中信息增益的
- 深入浅出理解决策树算法(一)-核心思想
- 深入浅出理解决策树算法(二)-ID3算法与C4.5算法
- 句法分析(syntactic parsing)在NLP领域的应用是怎样的?
- 隐马尔科夫模型-基本模型与三个基本问题
- 隐马尔科夫模型-前向算法
- 机器学习中向量化编程总结记录
- 目录传输命令scp
- 干货|如何处理不均衡数据?
- 10分钟入门pytorch(0)
- 10分钟快速入门PyTorch(1)
- 干货|10分钟入门PyTorch(2)~附源码
- 强烈推荐|一个非常好的依存句法可视化工具
- 深度学习的梯度消失问题
- 干货|李宏毅ML课程[1]Learning Map
- logistic函数和softmax函数
- GAN的数学原理
- 最优化问题的简介介绍是什么?
- 为什么要对数据进行归一化处理?
- 依存句法分析的任务以及形式化定义
- 干货|PyTorch中如何使用tensorboard可视化
- 花式解释AutoEncoder与VAE
- 哈工大社会计算与信息检索研究中心(HIT-SCIR)招收2018年秋季入学研究生
- 干货|最详尽的神经网络基础
- 国内大陆部分NLP团队
- 梯度下降法的三种形式BGD、SGD以及MBGD
- 评测时如何构造训练数据分布与测试数据分布保持一致
- 为什么梯度的方向与等高线切线方向垂直?
- 自然语言处理中的Attention Model:是什么以及为什么[一]
- 自然语言处理中的Attention Model:是什么以及为什么[二]
- 干货|SVM(一)·最全面的感知机总结
- 干货|非常详细的神经网络入门解释
- 干货|非常通俗的朴素贝叶斯算法(Naive Bayes)
- 【西瓜书】周志华《机器学习》学习笔记与习题探讨(一)
- 自然语言处理中CNN模型几种常见的Max Pooling操作
- 重磅|手把手教你从零编写操作系统
- 最大似然估计与最小二乘法的一点浅见
- seq2seq中的beam search算法过程
- 深入浅出讲解语言模型
- 干货|通俗讲解高斯过程回归
- 干货笔记|NLP Coursera By Michael Collins - Week1
- 干货笔记|Attentive Sequence to Sequence Networks
所有文章
加载更多
本站仅按申请收录合集,版权归原作者所有
如若侵权,请联系本站删除