• 设为首页
  • 点击收藏
  • 手机版
    手机扫一扫访问
    迪恩网络手机版
  • 关注官方公众号
    微信扫一扫关注
    迪恩网络公众号

zhaoxrthu/DQN_of_DWA_matlab: learning the weight of each paras in DWA(Dynamic Wi ...

原作者: [db:作者] 来自: 网络 收藏 邀请

开源软件名称(OpenSource Name):

zhaoxrthu/DQN_of_DWA_matlab

开源软件地址(OpenSource Url):

https://github.com/zhaoxrthu/DQN_of_DWA_matlab

开源编程语言(OpenSource Language):

MATLAB 100.0%

开源软件介绍(OpenSource Introduction):

DQN_of_DWA_matlab

learning the weight of each paras in DWA(Dynamic Window Approach) by using DQN(Deep Q-Learning)

1、关于本项目

使用matlab平台及deeplearning工具包,利用DQN(Deep Q-Learning)对DWA(Dynamic Window Approach)算法中各参数的权重进行学习。  

2、如何使用

直接运行DQN.m即可。
 

3、文件与参数说明

 3.1 DQN.m

 主训练函数,负责调用Agent与Environment的各个模块;训练时直接运行该文件即可。  

 3.2 Agent/

 对应RL(增强学习)中的Agent模块,完成学习网络的建立(新建或加载已有模型),DWA参数预测(前向传播)与更新。

  3.2.1 AgentOutput.m

   通过cnn(卷积神经网络),由当前的状态得到此时各个选择的Q值,进而得到当前状态下的参数。

  3.2.2 AgentLearn.m

   由上一步得到的参数前进后环境反馈得到的reward,更新卷积神经网络,到达对卷及神经网络进行学习的目的。

  3.2.3 NetSetUp.m & CreateNeuralNetneural.m

   卷积神经网络的建立与定义,参照了DeepLearnToolbox并进行了部分修改。

  3.2.4 ForwardPro.m & BackPro.m

   神经网络的前向传播与残差的后向传播,参照了DeepLearnToolbox并进行了部分修改;可支持多通道、batch训练。  

 3.3 Environment/

  对应RL(增强学习)中的Environment模块,完成对DWA算法的仿真。

  3.3.1 Environtment.m

   接受DQN.m传递的参数,利用仿真环境得到小车的下一帧周围环境、本次前进的奖励、小车的状态(是否到达终点,是否绕圈、停止等)并返回。

  3.3.2 LocalPathPlanning.m

   DWA主体部分,完成对各个路径的评价。

  3.2.3 GoalRandGen.m

   随机在地图上生成起始点和终点,要求避免两者距离太小或有一在障碍物中的情况。

  3.2.4 GetCurSurOb.m

   按照坐标得到小车周围的障碍物信息。
 

 3.4 Model/

  由DQN.m保存的当前模型参数信息,文件名为保存模型时的时间戳,可通过修改DQN.m中调用CreateNeuralNetneural.m的形式决定加载已有模型进行训练或者创建一个新模型。  

 3.5 Ob.png

  仿真的障碍物信息,可根据需要修改。   约定:白色(高像素值)部分为障碍物,黑色(低像素值)部分为可行区域。
 

4、其他

目前尚未得到较好的训练结果。
建议修改方向:神经网络的结构、奖励的形式与大小等。
联系方式【Email:[email protected]




鲜花

握手

雷人

路过

鸡蛋
该文章已有0人参与评论

请发表评论

全部评论

专题导读
热门推荐
阅读排行榜

扫描微信二维码

查看手机版网站

随时了解更新最新资讯

139-2527-9053

在线客服(服务时间 9:00~18:00)

在线QQ客服
地址:深圳市南山区西丽大学城创智工业园
电邮:jeky_zhao#qq.com
移动电话:139-2527-9053

Powered by 互联科技 X3.4© 2001-2213 极客世界.|Sitemap