分享好友 最新动态首页 最新动态分类 切换频道
最全【机器学习】——模型调参、超参数优化(2)
2024-12-26 10:01

Black-Box

最全【机器学习】——模型调参、超参数优化(2)

Multi-Fidelity

总结

三、网络架构搜索

Neural Architecture Search (神经架构的搜索)

早期NAS的工作:通过强化学习(Reinforcement Learning

One-shot 方法

可微的结构搜索(Differentiable Architecture Search

缩放CNN

最近的研究方向的重点

总结


手动调超参数

选取一个好的超参数得到一个好的结果是比较花时间的过程
一般会从一个好的基线开始。(Baseline)
基线是什么

  • 选一个质量比较高的工具包,其中设了不错的参数,虽然可能对我们的问题不算是最好的,但是是一个不错的开始点
  • 如果要做的东西是跟某些论文相关,可以看看该论文里面的超参数是什么(有些超参数跟特定的数据集有关,这些超参数在一般的情况下都不错

有了比较好的起始点之后,调整超参数后再重新训练模型,再去看看验证集上的结果(精度、损失

  • 一次调一个值,多个值同时调可能会不知道谁在起贡献
  • 看看模型对超参数的敏感度是什么样子【没调好一个超参数模型可能会比较差,但是调好了也只是到了还不错的范围】
  • 想对超参数没那么敏感的话,可以使用比较好的模型【在优化算法中使用Adam(对有些超参数没那么敏感,调参会简单很多)而不是SGD(在比较小的区域比较好)】
多次调参的管理
  • 每次调参一定要做好笔记【任何调过的东西,最好将这些实验管理好】(训练日志、超参数记录下来,这样可以与之前的实验做比较,也好做分享,与自己重复自己的实验
  • 最简单的做法是将log记录到txt上,把超参数和关键性指标(训练误差)放在excel中【适合实验没有那么多的参数】
  • Tensorboard,tensorflow开发的一个可视化工具
  • weight&kbias:允许在训练的时候用他们的API,然后把实验记录下来后上传到他们的网页上,就可以进行比较

重复一个实验是非常难的

  • 开发的环境:用的硬件是什么、新旧GPU可能会有点不一样;用的库的版本(Python本身也要去注意
  • 代码开发要做好版本控制(可以将每个版本的代码放在同一个地方 需求的库也放在这里
  • 要注意随机性(改变了随机种子,模型抖动比较大的话,说明代码的稳定性不是很好)【要避免换了个随机种子后,结果浮动比较大。这样的话,尝试能不能将不稳定的地方修改一下,实在不行就将多个模型做ensemble】
机器调参与人调参的成本比较
  • 在小任务上很多时候已经可以用机器来做了(到最后可能都是用机器来调参【人的成本在增加】
  • 训练树模型在CPU上花10min 大概花$0.4
  • 训练神经网络在GPU花1h左右 大概花$5
  • 跟人比(人大概花十天左右,算法训练1000次调参数,很有可能会打败人类(90%
自动调参(AutoML
  • AutoML在模型选择这一块做的比较好
  • 超参数的优化(HPO)【比较通用】:通过搜索的方法,找到一个集合去调整模型的超参数
  • NAS(Neural architecture search)【专注于神经网络】:可以构造一个比较好的神经网络模型,使得能够拟合我们的任务
  • 每个年代都有最大的技术痛点,当前AutoML可能是技术瓶颈。
总结

HPO算法

  • black-box:每次一个训练任务 当作一个黑盒(每挑一组超参数,然后拿去训练,然后看模型的关键的衡量指标(精度、误差,再去选下一个怎么做)【可以适用于各种机器学习算法】
  • Multi-fidelity(讨论比较多:因为训练一个模型太贵了(数据集很大,完整跑完很耗时间,还要试很多的话,太耗时了,所以可以不用把整个数据集给跑完(不关心最后的精度怎么样,只关心超参数之间的效果怎么样

以下是做法

  • 对数据集下采样(超参数如果在小数据集上效果比较好的话,在完整数据集上也不差
  • 将模型的变小(SGD的超参数在resnet18上效果差不多的话,在resnet152上也可能是不错的
  • 在训练时会对数据扫很多遍,但是对于不好的超参数来说,它训练一遍就知道它的效果怎么样了,所以不需要等到完全训练完,看到效果不好的,及时停止
  • 上面三点就是说,通过比较比较便宜点的但又跟完整训练有关系的任务来近似一个值,然后对超参数进行排序

Black-box 虽然会贵一点但是任务计算量比较小或优化算法不知道的话,这个方法会比较好;Multi-fidelity知道一些任务的细节,可以将任务弄小一点,这样每次试验的时候成本没有那么高。

HPO算法有哪些

Black-Box:

  • Grid Search:
  • Random Search:
  • Bayesian Optimization:
  • Simulated Annealing
  • Genetic Algorithms

Multi-Fidelity:

  • Modeling Learning Curve
  • Bandit Based(Successive Halving & Hyperband)
Black-Box

Grid search(网格搜索

  • 其实就是一个暴力穷举,对search space中的每一个config(每一组值),拿去训练一次然后去评价一次,把最好的结果返回出来,也就是把所有的组合过了一遍之后,再把最好的值返回出来。
  • 只要搜索空间足够好,就能覆盖到比较好的值,并且一定能找出来
  • 特点就是所有都会评价(Evaluate)一遍,并且保证能找到最好值,但是有个很明显的缺点,搜索空间随着超参数的变多会指数级的增加,也就是“维度诅咒”。但是如果算法足够简单,就那几个参数选择不大的话,当然预算足够的话,也是可以的。

Random Search(随机搜索

  • 随机搜索跟前面的有点类似,虽然也是有个search space 但是 我只选择n次,每一次在搜索空间中选出一个config,拿过去训练,再得出最好结果
  • 次数n保证了我们的这个算法一定会停,可以由我们自己选取,n取过大就跟网格搜索差不多,n取过小,可能并不是那么好用,就n要取得合适
  • 一般来说,随机搜索时一个非常有效的办法,再没有更好的想法之前可以尝试随机搜索
  • 其实也可以不选n,可以是等到差不多的时候(感觉精度没有什么进展)直接把它停掉

网格搜索可能会出现精度平稳之后,精度还会上升的情况;但是随机搜索很少会出现这样的情况,除非没有随机好。

Bayesian Optimization(贝叶斯优化

  • 在实际中用的不是那么多,因为相对来说比较复杂,但是是比较活跃的研究方向

  • BO(贝叶斯优化,是会学从一个超参数HP到目标函数(精度、损失)的一个函数【机器学习是数据到我们想要东西之间的一个映射的关系】,这里是说每一个数据点是一个模型

  • 就每做一个实验就会得到一个数据点,然后再拟合一个曲线出来;它在选下一个超参数去试的时候,会根据当前的评估,来的出数据点

  • Surrogate模型:就是拟合超参数与目标函数之间关系的模型,可以采用概率的一些regression模型,可以使用随机森林或者是高斯过程

  • 具体有张图

  • 随着采样的越来越多,对整个模型的进步会越来越准。

  • 在一开始的时候其实跟random search差不多(获取函数还不够好,就只能随机挑值来做,再后期的时候(建模比较准)会比较好一点

  • 随机搜索是并行的算法,贝叶斯优化是顺序的算法(采下一个点需要等上一个完成才行

  • 到底是什么时候会好一点,如果预算不够的话(搜的质量跟随机搜索的差不多,这样是划不来的;如果贝叶斯能在前期就做的比随机搜索好,那这样的划得来的。

  • 通常贝叶斯优化比随机搜索好的时候,一般来说是模型比较简单(模型比较简单的话,随机搜索也不差,或者是超参数的那个空间不那么复杂,或者有足够多的样本(需要很多的预算

Multi-Fidelity

以下这两个算法在现实生活中用的比较多

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

)]
[外链图片转存中…(img-HrqddpGF-1714810245694)]

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

最新文章
91关了,苹果笑了!无数国人撸过的神器们说没就没
各位朋友,你们知道91吗?它最近关了。就是那个,以前很火,很多人都用过的,基哥相信你们手机以前也肯定上过的。不是你想的那个……是91手机助手啊!不是那种91X先生的91,满脑子想什么呢?就在前些天,百度手机助手官方发布公告:从此以
3.8.2.2(2024-12-14)下载此版本
更新iOS平台插件依赖OpenIMUniPlugin.framework由于插件市场不支持版本后缀,所以会和版本号会出现对不上的情况。uni-app x 版本已经在开发中,预计 3.9 版本发布,请不要着急!官方插件和Demo是确保能正确运行的,使用期间出现无法运行等
2024年巨量引擎广告投放步骤详解
2024年巨量引擎广告投放步骤详解以下是巨量引擎的投放步骤:步骤一:账号注册与登录在巨量引擎官网注册账号并登录。步骤二:创建广告账户根据提示创建广告账户,完善相关信息。步骤三:广告组创建明确推广目的,如品牌推广、应用下载、销售
10大wordpress百度SEO优化增加收录的方法
wordpress博客程序是目前全球采用最多的建站程序,尤其是国外的博客主,稍微专业点的博客站点Alexa排名都在1万以内,因为他们的流量大部分是来自搜索引擎,也就是来自Google(谷歌)。因为wordpress博客程序天生就是为Google(谷歌)开发的,所
365智能优化wise care 365
wise care 365,俗称365智能优化软件。这是一款优秀的电脑防护清理软件。相信很多用户电脑上可能都在使用电脑管家或者是360杀毒,但是还是有些病毒或者是垃圾广告,防不胜防。而这款软件就可以很好的帮助大家对自己电脑的各种漏洞进行修复
2025年网络百度sem推广开户全攻略:步骤、要点与实战指南
随着互联网的飞速发展,搜索引擎营销(SEM)已成为企业获取流量、提升品牌知名度的重要手段。百度作为国内领先的搜索引擎,其SEM推广服务备受企业青睐。然而,对于初次接触百度SEM推广的企业来说,开户流程可能显得既神秘又复杂。本文将为
AI智慧科技+多功能护理,三星AI神黑钻衣物护理机到底有多强?
冬季的衣物护理一直是个大难题,各种羊毛大衣、羽绒服本身不适合频繁清洗,但穿的时间久了总会有清洁除尘等需求,偏偏羊毛大衣、羽绒服、棉服等衣物还不能用常规方式洗烘,每清洁一次总能让人疲惫不堪。近期,三星生活家电推出了一款AI神黑
2025年网站性能优化指南:关键步骤助力资源高效利用
  随着互联网技术的快速发展,网站性能优化已经成为网站建设过程中不可或缺的一环。在2025年,网站性能优化显得尤为重要,因为用户对于网站速度和体验的要求越来越高。本指南将为您揭示提升网站性能的关键步骤,帮助您构建一个高效、稳定
2024年334期[赚它一个亿]排列五双胆推荐46
排列五上期形态统计:大小形态为大小大大大,大小比为4:1,012路比为: 1:1:3,奇偶形态为偶偶偶奇奇,质合形态为合合合质合,质合比为:1:4,和值为34点,和尾为4点,跨度为5。最大号:9,最小号:4体彩排列五走势图表体彩排列五第24334期综合分析
相关文章
推荐文章
发表评论
0评