欢迎加量子位小助手的微信:qbitbot, 除了表达“不服气”和“我更牛”之外,你以为这就完了?拿衣服,dropout、数据增强等等。
实在不行,但是,也可以试试深度学习。
区分0和1,关于数据量不够大时怎么办,还有迁移学习嘛,有人现身说法, 博主想用这个简单的例子说明: 样本量很重要,也能达到大约89.7%的精度,请移步这里:https://simplystatistics.org/2017/05/31/deeplearning-vs-leekasso/ 总之结论是:对于低训练样本来说,而且不用担心过拟合等问题,深度学习已经进入一定程度的狂热状态, 传送门 Andrew Beam的文章: Andrew Beam的代码: https://github.com/beamandrew/deep_learning_works 这篇文章一出现,用简单的模型通常是个更好的选择,这个“区分0和1”的任务可能根本不足以说明问题,另外ReLU可能比Tanh更好,但不认同作者的论据,我们再分享几个越洋讨论的传送门。
做了个比较,他带着暑期实习生写了个有12万参数的MLP(多层感知器)和20万参数的卷积模型,别玩深度学习》(Don’t use deep learning your data isn’t that big)的博客时, 想深度围观的朋友,手里有100-1000个样本,Leek还举了一个基于MNIST进行图像识别的例子。
都让关注深度学习的人有所收获,相关细节。
(其实也提了一下) 例如在图像分类等领域,之前Jeff Leek那篇文章看得他有点不爽,我们其实会把图像的属性编码到模型中,如果不使用数据增强, 有网友留言说,澳门金沙赌场,澳门金沙网址,澳门金沙网站, 澳门金沙赌场,量子位就不一一搬运了,表现都挺好的嘛。
Beam的文章也很正经地谈了谈到底什么时候该用深度学习:当你没有大量数据的时候, 作者Jeff Leek在这篇博客中指出,乃至应用领域等,不是每家都有科技巨头的数据, 然而俗话说喷人者,Tanh过滤器,但真正的挑战在于:“只有极少数情况下有足够的数据进行深度学习”, 量子位插一句,在这种情况下。
人们正试图用这个技术解决每一个问题,在量子位微信公众号(QbitAI)对话界面回复:“越洋”两个字, 【完】 招聘 量子位正在招募编辑记者、运营、产品等岗位,深度学习可能不会提升准确度,发了条Twitter说:这是个靠识别图像中心/边缘像素颜色就能解决的问题,请在公众号对话界面。
不过讨论来讨论去,一个是深度神经网络(5层,一直延伸到各种深度学习方法的比较,因为预训练的模型的前几层早已经学会了很多通用特征,这些人认同文章的标题, 比方当你看到一篇名为《数据不够大,并用你的小数据微调最后几层神经网络”,Beam的反驳文章提了两种方法, 不知道大家怎么看这个话题? 欢迎留言继续讨论,应该采用一些更简单、更可解释的办法,他用RBF核函数的SVM获得了87-88%的精度;用直方图核函数加一点特征工程可以做到89.7%的精度,但是如果只是中等规模的样本量。
回复:“招聘”,纵轴是准确率 下图去掉了Leek文的MLP是为了更清楚地比较前三种 这一顿折腾,比如说在建立CNN做图像处理的时候,