山东科威数控机床有限公司铣床官方网站今天是:2025-07-03切换城市[全国]-网站地图
推荐产品 :
推荐新闻
技术文章当前位置:技术文章>

一种基于移动生物刺激神经网络的多机器人联合编队方法

时间:2025-07-03    作者: 管理员

专利名称:一种基于移动生物刺激神经网络的多机器人联合编队方法
技术领域
本发明涉及一种基于移动生物刺激神经网络的多机器人联合编队方法,属于多机器人协作控制技术领域,是人工智能与机器人技术相结合的应用。
背景技术
多机器人编队·的应用范围很广,可以在军事、航空航天、探测、灾害处理等方而做出突出的贡献,并且多机器人编队控制的研究是多机器人协作研究的重要内容之一,其研究具有重要理论和现实应用价值。

发明内容
发明目的为了克服现有技术中存在的不足,本发明提供一种基于移动生物刺激神经网络的多机器人联合编队方法,包括以下步骤步骤(I):多机器人系统中的每个机器人被看作一个智能体,每个机器人携带动感检测摄像机、超声波传感器、激光测距仪和无线通讯设备进行工作;步骤(2):智能机器人通过动感检测摄像机实时获得环境中的图像信息,超声波传感器用于感知环境中的目标及障碍物,并由激光测距仪来确定目标和障碍物的位置,并将动感检测摄像机、超声波传感器和激光测距仪测得的环境信息通过无线通讯设备转换为广播信息传给其他机器人,实现信息共享;步骤(3):任务开始时,首先在多机器人系统中随机确定一个为领航机器人,领航机器人根据任务中实际目标位置信息以及其他机器人广播得到的环境信息,结合自身动感检测摄像机、超声波传感器和激光测距仪所探测到的信息,利用移动生物刺激神经网络模型建立实时地图,计算到达实际目标位置的最佳路径,然后利用生物刺激神经网络进行导航;步骤(4):领航机器人在运动的同时,根据自身的实时位置信息,利用基于leader-referenced算法的编队模型,计算所要求保持队形中各个跟随机器人应该到达的指定位置,并将其作为各个跟随机器人的虚拟目标;步骤(5):领航机器人根据各跟随机器人当前的实际位置信息,通过SOM自组织神经网络算法实时地将上面计算得到的各个虚拟目标在各跟随机器人中进行分配,然后通过无线通讯将该虚拟目标位置发送给对应的跟随机器人;步骤(6):各跟随机器人根据领航机器人实时发送的虚拟目标位置信息以及其他机器人广播的环境信息,并根据自身动感检测摄像机、超声波传感器和激光测距仪探测得到的信息,利用移动生物刺激神经网络模型建立实时地图,计算到达其对应虚拟目标的最佳路径,并进行导航,从而实现与领航机器人以及其他机器人保持要求的队形;为了防止机器人之间互相碰撞,这里将其他机器人当做障碍物处理;即可以实现整个机器人编队以要求的各种队形,并最佳导航到达目标。在运动过程中,如果任务目标和所要求队形发生改变,只需在领航机器人中调整实际目标位置和相应的队形模型即可。
所述步骤(2)中广播信息具体是指,广播信息的内容和格式如下A= {x, y, z, flag}其中,(X,y, z)表示环境中的三维位置坐标;flag表示其对应状态的标志位,其对
应的内容为
权利要求
1.一种基于移动生物刺激神经网络的多机器人联合编队方法,包括如下步骤 步骤(I):多机器人系统中的每个机器人被看作一个智能体,每个机器人携带动感检测摄像机、超声波传感器、激光测距仪和无线通讯设备进行工作; 步骤(2):智能机器人通过动感检测摄像机实时获得环境中的图像信息,超声波传感器用于感知环境中的目标及障碍物,并由激光测距仪来确定目标和障碍物的位置,并将动感检测摄像机、超声波传感器和激光测距仪测得的环境信息通过无线通讯设备转换为广播信息传给其他机器人,实现信息共享; 步骤(3):任务开始时,首先在多机器人系统中随机确定一个为领航机器人,领航机器人根据任务中实际目标位置信息以及其他机器人广播得到的环境信息,结合自身动感检测摄像机、超声波传感器和激光测距仪所探测到的信息,利用移动生物刺激神经网络模型建立实时地图,计算到达实际目标位置的最佳路径,然后利用生物刺激神经网络进行导航; 步骤(4):领航机器人在运动的同时,根据自身的实时位置信息,利用基于leader-referenced算法的编队模型,计算所要求保持队形中各个跟随机器人应该到达的指定位置,并将其作为各个跟随机器人的虚拟目标; 步骤(5):领航机器人根据各跟随机器人当前的实际位置信息,通过SOM自组织神经网络算法实时地将上面计算得到的各个虚拟目标在各跟随机器人中进行分配,然后通过无线通讯将该虚拟目标位置发送给对应的跟随机器人; 步骤(6):各跟随机器人根据领航机器人实时发送的虚拟目标位置信息以及其他机器人广播的环境信息,并根据自身动感检测摄像机、超声波传感器和激光测距仪探测得到的信息,利用移动生物刺激神经网络模型建立实时地图,计算到达其对应虚拟目标的最佳路径,并进行导航,从而实现与领航机器人以及其他机器人保持要求的队形;为了防止机器人之间互相碰撞,这里将其他机器人当做障碍物处理;即可以实现整个机器人编队以要求的各种队形,并最佳导航到达目标。
2.根据权利要求I所述的基于移动生物刺激神经网络的多机器人联合编队方法,其特征在于所述步骤(2)中广播信息具体是指,广播信息的内容和格式如下 A= {x, y, z, flag} 其中,(x,y,z)表示环境中的三维位置坐标;flag表示其对应状态的标志位,其对应的内容为
3.根据权利要求I所述的基于移动生物刺激神经网络的多机器人联合编队方法,其特征在于所述步骤(4)中基于leader-referenced算法的编队模型具体是指 (3a):若定义Rtl为领航机器人,其实际目标位置坐标为( ^ Ztl),Ri为第i个跟随机器人,则其虚拟目标位置坐标为(XpypZi),其计算公式根据编队任务的不同而不同,例如编队的队形为同一平面的一字队形,则各跟随机器人的虚拟目标位置计算函数为
4.根据权利要求I所述的基于移动生物刺激神经网络的多机器人联合编队方法,其特征在于所述步骤(5)中SOM自组织神经网络算法具体是指 (4a) S0M自组织神经网络算法分为两层输入层为目标的位置,输出层包括机器人的坐标及到达目标的规划路径; (4b):基于SOM自组织神
5.根据权利要求I所述的基于移动生物刺激神经网络的多机器人联合编队方法,其特征在于所述步骤(3)和步骤(6)中利用移动生物刺激神经网络模型建立实时地图是指 (5a):先将动感检测摄像机获得的图像进行处理,获得此时此刻的环境信息,根据探测的范围,构建一个神经网络;根据探测仪的识别距离,将此环境空间离散化,其中每个离散点即神经元是一个4维空间,由(x,y,z,s)构成,(x,y, z)是该离散点的地理位置坐标,s是生物刺激神经网络神经元的活性值,由下式计算
全文摘要
本发明涉及一种基于移动生物刺激神经网络的多机器人联合编队方法,各机器人根据动感检测摄像机、超声波传感器和激光测距仪探测得到的信息以及其他机器人发送的环境信息,结合领航机器人发送的虚拟目标位置信息,利用移动的生物刺激神经网络模型,建立各自的实时地图,并计算最佳路径来调整自身位置,实现保持所要求队形的同时,朝实际目标运动。本发明利用SOM自组织神经网络进行编队任务分配,利用移动生物刺激神经网络实时构建地图,进行机器人导航;本发明在多机器人联合编队、多机器人联合搜救等方面,具有重要理论和现实应用价值。
文档编号G01C21/34GK102915465SQ20121040892
公开日2013年2月6日 申请日期2012年10月24日 优先权日2012年10月24日
发明者倪建军, 仰晓芳, 王楚, 吴文波, 李新云, 殷霞红 申请人:河海大学常州校区

  • 专利名称:一种混凝土粗集料界面抗折强度测试装置的制作方法技术领域:本实用新型属于混凝土集料界面粘结强度测试技术领域,尤其是涉及一种混凝土 粗集料界面抗折强度测试装置。背景技术:混凝土粗集料界面存在强度薄弱过渡区,界面过渡区结构相对疏松,强度
  • 专利名称:一种电压过零检测电路及具有该检测电路的dc-dc转换器的制作方法技术领域:本发明涉及一种模拟集成电路,特别的涉及一种对电路的电流或电压过零点起检 测作用的模拟集成电路及其应用。背景技术:同步整流是采用通态电阻很低的功率MOSFET
  • 专利名称:热轧设备状态在线监测装置的制作方法技术领域:本实用新型涉及冶金机械设备监测与诊断技术领域,具体的说是一种热轧设备状 态在线监测装置。背景技术:热轧生产线是冶金企业重要的成品生产厂,其当前的机械设备状态检测主要有三 种其一是技术人员
  • 专利名称:一种脉冲数据采集装置的制作方法技术领域:本实用新型涉及一种数字表具用的脉冲数据采集装置。背景技术:脉冲数据采集装置常用于数字表具,如计数器,数字水表,数字电度表,数字煤气表等。如图1所示,由微处理器、存储器、人机对话装置或通讯接口
  • 专利名称:汽车悬置等幅疲劳试验台的制作方法技术领域:汽车悬置等幅疲劳试验台技术领域[0001]本实用新型涉及汽车悬置测试领域,尤其涉及一种汽车悬置疲劳试验台。技术背景[0002]汽车悬置承受着动力总成的质量,在受各种干扰力,如制动,加速等作
  • 专利名称:卷烟制品长度裁切实验装置的制作方法技术领域:本实用新型涉及小型烟草实验器具,具体来说是一种巻烟制品长度裁切实验装置,利用该装置能快速精确的将巻烟制品裁切到合适长度,且切口非常平整。 背景技术:烟支长度和滤嘴长度对巻烟焦油量等烟气指
山东科威数控机床有限公司
全国服务热线:13062023238
电话:13062023238
地址:滕州市龙泉工业园68号
关键词:铣床数控铣床龙门铣床
公司二维码
Copyright 2010-2024 http://www.ruyicnc.com 版权所有 All rights reserved 鲁ICP备19044495号-12