AG真人国际(中国)官方网站

服务热线热线:

02088888888

AG行业新闻

AG真人国际(中国)官方网站机器人视觉导航方法、装置、机器人及存储介质pdf

发布时间:2024-12-19点击次数:

  本申请公开了一种机器人视觉导航方法、装置、机器人及存储介质,通过对机器人采集到的视觉图像进行目标检测,提取视觉图像中的动态对象信息和静态对象信息,并根据动态对象信息、静态对象信息和机器人的本体信息,生成环境模型,以得到机器人移动过程的实时环境地图,便于机器人进行全局规划;再根据环境模型和预设专家导航策略的最优奖赏函数,更新路径规划智能体,以利用逆强化学习算法,提高机器人对不同环境进行路径规划时的环境适应性;最后利用更新后的路径规划智能体,对机器人进行路径规划,得到全局导航路径,从而实时更新全局导

  (19)国家知识产权局 (12)发明专利申请 (10)申请公布号 CN 114510031 A (43)申请公布日 2022.05.17 (21)申请号 6.3 (22)申请日 2021.12.31 (71)申请人 中原动力智能机器人有限公司 地址 450018 河南省郑州市郑东新区明理 路尚贤街河南企业联合大厦16层1601 (72)发明人 万里红刘娜袁野吴国栋 张赛 (74)专利代理机构 广州三环专利商标代理有限 公司 44202 专利代理师 许羽冬 (51)Int.Cl. G05D 1/02 (2020.01) 权利要求书2页 说明书8页 附图2页 (54)发明名称 机器人视觉导航方法、装置、机器人及存储 介质 (57)摘要 本申请公开了一种机器人视觉导航方法、装 置、机器人及存储介质,通过对机器人采集到的 视觉图像进行目标检测,提取视觉图像中的动态 对象信息和静态对象信息,并根据动态对象信 息、静态对象信息和机器人的本体信息,生成环 境模型,以得到机器人移动过程的实时环境地 图,便于机器人进行全局规划;再根据环境模型 和预设专家导航策略的最优奖赏函数,更新路径 规划智能体,以利用逆强化学习算法,提高机器 人对不同环境进行路径规划时的环境适应性;最 后利用更新后的路径规划智能体,对机器人进行 A 路径规划,得到全局导航路径,从而实时更新全 1 局导航路径,避免导航路径陷入局部最优,提高 3 0 0 路径规划的准确度。 1 5 4 1 1 N C CN 114510031 A 权利要求书 1/2页 1.一种机器人视觉导航方法,其特征在于,包括: 对机器人采集到的视觉图像进行目标检测,提取所述视觉图像中的动态对象信息和静 态对象信息; 根据所述动态对象信息、所述静态对象信息和所述机器人的本体信息,生成环境模型; 根据所述环境模型和预设专家导航策略的最优奖赏函数,更新路径规划智能体; 利用更新后的所述路径规划智能体,对所述机器人进行路径规划,得到全局导航路径, 所述全局导航路径用于对所述机器人进行导航控制。 2.如权利要求1所述的机器人视觉导航方法,其特征在于,所述根据所述动态对象信 息、所述静态对象信息和所述机器人的本体信息,生成环境模型,包括: 确定所述动态对象信息和所述静态对象信息与所述本体信息之间的实际位置关系; 将所述实际位置关系结合预设的危险距离和最大感知距离,对所述机器人进行避障判 断,以建立所述环境模型。 3.如权利要求1所述的机器人视觉导航方法,其特征在于,所述根据所述环境模型和预 设专家导航策略的最优奖赏函数,更新路径规划智能体,包括: 根据所述环境模型和所述机器人的当前状态信息,确定随机模型预测控制器,所述随 机模型预测控制器满足预设的最优控制成本函数; 根据所述最优控制成本函数,确定所述预设专家导航策略的最优奖赏函数; 根据所述最优奖赏函数,对所述路径规划智能体进行更新。 4.如权利要求3所述的机器人视觉导航方法,其特征在于,所述最优控制成本函数为: 其中,C 表示对速度施加的惩罚系数,C 表示对碰撞施加的惩罚系数,I为指示器 speed crach 函数,v 表示所述机器人在x方向上的实际速度, 表示所述机器人在x方向上的期望速 x 度,X 表示t时刻的状态信息。 t 5.如权利要求3所述的机器人视觉导航方法,其特征在于,所述根据所述最优控制成本 函数,确定所述预设专家导航策略的最优奖赏函数,包括: 根据所述最优控制成本函数和所述预设专家导航策略,确定所述预设专家导航策略的 奖赏函数集合; 利用优化函数,对所述奖赏函数集合进行优化,得到所述预设专家导航策略的最优奖 赏函数。 6.如权利要求5所述的机器人视觉导航方法,其特征在于,所述奖赏函数集合中的每个 奖赏函数满足预设条件,所述预设条件为: 表示所述预设专家导航策略的转移矩阵,p 表示非专家导航策略的转移矩阵,I为 a 指示器函数,R为所述奖赏函数,γ为折扣因子。 7.如权利要求5所述的机器人视觉导航方法,其特征在于,所述优化函数为: 2 2 CN 114510031 A 权利要求书 2/2页 π π 其中,S表示状态空间,Q (s,a)表示在状态s时采用预设专家导航策略a 时的Q函数,Q 1 1 (s,a)表示在状态s时采用非专家导航策略a时的Q函数,Q函数表示未来奖励期望值。 8.一种机器人视觉导航装置,其特征在于,包括: 检测模块,用于对机器人采集到的视觉图像进行目标检测,提取所述视觉图像中的动 态对象信息和静态对象信息; 生成模块,用于根据所述动态对象信息、所述静态对象信息和所述机器人的本体信息, 生成环境模型; 更新模块,用于根据所述环境模型和预设专家导航策略的最优奖赏函数,更新路径规 划智能体; 规划模块,用于利用更新后的所述路径规划智能体,对所述机器人进行路径规划,得到 全局导航路径,所述全局导航路径用于对所述机器人进行导航控制。 9.一种机器人,其特征在于,包括处理器和存储器,所述存储器用于存储计算机程序, 所述计算机程序被所述处理器执行时实现如权利要求1至7任一项所述的机器人视觉导航 方法。 10.一种计算机可读存储介质,其特征在于,其存储有计算机程序,所述计算机程序被 处理器执行时实现如权利要求1至7任一项所述的机器人视觉导航方法。 3 3 CN 114510031 A 说明书 1/8页 机器人视觉导航方法、装置、机器人及存储介质 技术领域 [0001] 本申请涉及导航控制技术领域,尤其涉及一种机器人视觉导航方法、装置、机器人 及存储介质。 背景技术 [0002] 在移动机器人行业,近几年以摄像机作为感知器的视觉导航应用正在逐渐增多。 传统的导航控制技术中,如A*算法、Dijkstra等全局路径规划方法需要全局环境信息已 知,且难以解决不断变化的场景。而类似于人工势场、动态窗口、D*等局部路径规划方法虽 然能够在一定程度上解决动态场景问题,但是上述方法是以极短的时间重新观测变化后的 环境,重规划出新的路线,而对于动态性较高的场景就会出现重规划难的情况,定位时只考 虑局部环境信息导致容易出现局部最优的情况。 发明内容 [0003] 本申请提供了一种机器人视觉导航方法、装置、机器人及存储介质,以解决当前视 觉导航方法存在环境适应性差的技术问题。 [0004] 为了解决上述技术问题,本申请实施例提供了一种机器人视觉导航方法,包括: [0005] 对机器人采集到的视觉图像进行目标检测,提取所述视觉图像中的动态对象信息 和静态对象信息; [0006] 根据所述动态对象信息、所述静态对象信息和所述机器人的本体信息,生成环境 模型; [0007] 根据所述环境模型和预设专家导航策略的最优奖赏函数,更新路径规划智能体; [0008] 利用更新后的所述路径规划智能体,对所述机器人进行路径规划,得到全局导航 路径,所述全局导航路径用于对所述机器人进行导航控制。 [0009] 本实施例通过对机器人采集到的视觉图像进行目标检测,提取所述视觉图像中的 动态对象信息和静态对象信息,并根据所述动态对象信息、所述静态对象信息和所述机器 人的本体信息,生成环境模型,以得到机器人移动过程的实时环境地图,便于机器人进行全 局规划;再根据所述环境模型和预设专家导航策略的最优奖赏函数,更新路径规划智能体, 以利用逆强化学习算法,提高机器人对不同环境进行路径规划时的环境适应性;最后利用 更新后的所述路径规划智能体,对所述机器人进行路径规划,得到全局导航路径,从而实时 更新全局导航路径,避免导航路径陷入局部最优,提高路径规划的准确度。 [0010] 在一实施例中,所述根据所述动态对象信息、所述静态对象信息和所述机器人的 本体信息,生成环境模型,包括: [0011] 确定所述动态对象信息和所述静态对象信息与所述本体信息之间的实际位置关 系; [0012] 将所述实际位置关系结合预设的危险距离和最大感知距离,对所述机器人进行避 障判断,以建立所述环境模型。 4 4 CN 114510031 A 说明书 2/8页 [0013] 在一实施例中,所述根据所述环境模型和预设专家导航策略的最优奖赏函数,更 新路径规划智能体,包括: [0014] 根据所述环境模型和所述机器人的当前状态信息,确定随机模型预测控制器,所 述随机模型预测控制器满足预设的最优控制成本函数; [0015] 根据所述最优控制成本函数,确定所述预设专家导航策略的最优奖赏函数; [0016] 根据所述最优奖赏函数,对所述路径规划智能体进行更新。 [0017] 可选地,所述最优控制成本函数为: [0018] [0019] 其中,C 表示对速度施加的惩罚系数,C 表示对碰撞施加的惩罚系数,I为指 speed crach 示器函数,v 表示所述机器人在x方向上的实际速度, 表示所述机器人在x方向上的期望 x 速度,X 表示t时刻的状态信息。 t [0020] 在一实施例中,所述根据所述最优控制成本函数,确定所述预设专家导航策略的 最优奖赏函数,包括: [0021] 根据所述最优控制成本函数和所述预设专家导航策略,确定所述预设专家导航策 略的奖赏函数集合; [0022] 利用优化函数,对所述奖赏函数集合进行优化,得到所述预设专家导航策略的最 优奖赏函数。 [0023] 可选地,所述奖赏函数集合中的每个奖赏函数满足预设条件,所述预设条件为: [0024] [0025] 表示所述预设专家导航策略的转移矩阵,p 表示非专家导航策略的转移矩阵, a I为指示器函数,R为所述奖赏函数,γ为折扣因子。 [0026] 可选地,所述优化函数为: [0027] [0028] π 其中,S表示状态空间,Q (s,a)表示在状态s时采用预设专家导航策略a 时的Q函 1 1 π 数,Q (s,a)表示在状态s时采用非专家导航策略a时的Q函数,Q函数表示未来奖励期望值。 [0029] 第二方面,本申请实施例提供一种机器人视觉导航装置,包括: [0030] 检测模块,用于对机器人采集到的视觉图像进行目标检测,提取所述视觉图像中 的动态对象信息和静态对象信息; [0031] 生成模块,用于根据所述动态对象信息、所述静态对象信息和所述机器人的本体 信息,生成环境模型; [0032] 更新模块,用于根据所述环境模型和预设专家导航策略的最优奖赏函数,更新路 径规划智能体; [0033] 规划模块,用于利用更新后的所述路径规划智能体,对所述机器人进行路径规划, 得到全局导航路径,所述全局导航路径用于对所述机器人进行导航控制。 [0034] 第三方面,本申请实施例提供一种机器人,包括处理器和存储器,所述存储器用于 存储计算机程序,所述计算机程序被所述处理器执行时实现如第一方面所述的机器人视觉 5 5 CN 114510031 A 说明书 3/8页 导航方法。 [0035] 第四方面,本申请实施例提供一种计算机可读存储介质,其存储有计算机程序,所 述计算机程序被处理器执行时实现如第一方面所述的机器人视觉导航方法。 [0036] 需要说明的是,上述第二方面至第四方面的有益效果请参见上述第一方面的相关 描述,在此不再赘述。 附图说明 [0037] 图1为本申请实施例提供的机器人视觉导航方法的流程示意图; [0038] 图2为本申请实施例提供的机器人视觉导航装置的结构示意图; [0039] 图3为本申请实施例提供的机器人的结构示意图。 具体实施方式 [0040] 下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完 整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于 本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他 实施例,都属于本申请保护的范围。 [0041] 如相关技术记载,当前方法是以极短的时间重新观测变化后的环境,重规划出新 的路线,而对于动态性较高的场景就会出现重规划难的情况,定位时只考虑局部环境信息 导致容易出现局部最优的情况。 [0042] 为此,本申请实施例提供一种机器人视觉导航方法、装置、机器人及存储介质,通 过对机器人采集到的视觉图像进行目标检测,提取所述视觉图像中的动态对象信息和静态 对象信息,并根据所述动态对象信息、所述静态对象信息和所述机器人的本体信息,生成环 境模型,以得到机器人移动过程的实时环境地图,便于机器人进行全局规划;再根据所述环 境模型和预设专家导航策略的最优奖赏函数,更新路径规划智能体,以利用逆强化学习算 法,提高机器人对不同环境进行路径规划时的环境适应性;最后利用更新后的所述路径规 划智能体,对所述机器人进行路径规划,得到全局导航路径,从而实时更新全局导航路径, 避免导航路径陷入局部最优,提高路径规划的准确度。 [0043] 请参照图1,图1为本申请实施例提供的一种机器人视觉导航方法的流程示意图。 本申请实施例的机器人视觉导航方法可应用于机器人,机器人包括但不限于扫地机器人和 巡检机器人等。如图1所示,本实施例的机器人视觉导航方法包括步骤S101至步骤S104,详 述如下: [0044] 步骤S101,对机器人采集到的视觉图像进行目标检测,提取所述视觉图像中的动 态对象信息和静态对象信息。 [0045] 在本步骤中,机器人实时采集视觉图像。由于从视觉传感器获得的图像或视频易 受到噪声或者是背景的影响,一般情况下,从视觉传感器获得的图像包含噪声,而图像质量 的好坏直接影响后续算法的精度。因此需要先进行视觉图像的预处理,预处理包括但不限 于图像的去噪、灰度化和二值化等,图像预处理的主要目的是消除图像中无关的信息,恢复 有用的真实信息,增强有关信息的可检测性、最大限度地简化数据,从而改进特征提取、图 像分割、匹配和识别的可靠性。 6 6 CN 114510031 A 说明书 4/8页 [0046] 从预处理后的视觉图像提取现实场景中的静态对象信息和动态对象信息。基于3D 视觉技术,实时感知移动机器人周边环境中静态对象和动态对象的距离、坐标位置等关键 信息。对于静态对象,利用角点提取和边提取相结合的方式提取特征。对于动态对象,利用 当前帧图像与背景图像作差分运算进行运动目标的特征提取。 [0047] 步骤S102,根据所述动态对象信息、所述静态对象信息和所述机器人的本体信息, 生成环境模型。 [0048] 在本步骤中,确定所述动态对象信息和所述静态对象信息与所述本体信息之间的 实际位置关系; [0049] 将所述实际位置关系结合预设的危险距离和最大感知距离,对所述机器人进行避 障判断,以建立所述环境模型。 [0050] 可选地,建立环境模型,在环境模型中,定义移动机器人目标位置,障碍物对象,机 器人本体对象,同时定义位于移动机器人左前、正前、右前位置传感器的检测范围。对环境 模型做如下假设:目标位置已知,障碍物位置未知,在机器人运动过程中目标位置不发生任 何变化,移动机器人具备初始速度,在运动过程中速度恒定,不发生变化。定义d 和d 分 risk max 别为移动机器人距离障碍物对象的危险距离和最大感知距离,d为移动机器人距离障碍物 的实际距离,避开障碍物的判断过程为: [0051] 如果dd ,则移动机器人与障碍物发生碰撞,对移动机器人的位置进行初始化; risk [0052] 如果d dd ,则障碍物在移动机器人的感知范围内,移动机器人根据障碍物 risk max 位置调整自身方向; [0053] 如果dd ,则障碍物不在移动机器人的感知范围内。 max [0054] 步骤S103,根据所述环境模型和预设专家导航策略的最优奖赏函数,更新路径规 划智能体。 [0055] 在本步骤中,根据所述环境模型和所述机器人的当前状态信息,确定随机模型预 测控制器,所述随机模型预测控制器满足预设的最优控制成本函数;根据所述最优控制成 本函数,确定所述预设专家导航策略的最优奖赏函数;根据所述最优奖赏函数,对所述路径 规划智能体进行更新。 [0056] 使用一个随机模型预测控制器(Random Model Predictive Control,RMPC)预测 导航路径积分控制,该控制器可以操作非线性动力学,具有非凸代价函数,是一种具有后退 时间范围的路径规划和控制的迭代优化控制器。最优控制成本函数为: [0057] [0058] 其中,C 表示对速度施加的惩罚系数,C 表示对碰撞施加的惩罚系数,I为指 speed crach 示器函数,如果碰撞对象对移动机器人的伤害大,则I=1,否则I=0,碰撞成本取决于指示 器函数I,v 表示所述机器人在x方向上的实际速度, 表示所述机器人在x方向上的期望 x 速度,X 表示t时刻的状态信息, 表示移动机器人在世界坐 t 标系中的状态。 [0059] 可以理解的是,安装在移动机器人上的摄像机的图像空间是局部固定帧,即图像 空间中表示的状态相对于移动机器人的摄像机。然而,导航路径规划是以第一人称视图的 最优路径,因此在世界坐标中描述的车辆的未来状态轨迹必须转换为移动参考系。 7 7 CN 114510031 A 说明书 5/8页 [0060] 可选地,所述根据所述最优控制成本函数,确定所述预设专家导航策略的最优奖 赏函数,包括:根据所述最优控制成本函数和所述预设专家导航策略,确定所述预设专家导 航策略的奖赏函数集合;利用优化函数,对所述奖赏函数集合进行优化,得到所述预设专家 导航策略的最优奖赏函数。 [0061] 在本可选实施例中,最优奖赏函数的优化任务包括(1)找出专家策略对应的奖赏 函数集合和(2)对该集合进行筛减。对于有限的状态空间S和动作空间A有限,而且已知最优 策略Φ、模型动态性p(转移概率)以及折扣因子。对于给定专家策略Φ,对应的奖赏函数R满 足预设条件: [0062] [0063] 表示所述预设专家导航策略的转移矩阵,p 表示非专家导航策略的转移矩阵, a I为指示器函数,R为所述奖赏函数,γ为折扣因子。 [0064] 由于满足预设条件的奖赏函数R有很多,因此需要对上述专家策略对应的奖赏函 数集合进行筛减。由于最优的奖赏函数一定可以最大程度的区分专家策略与一般策略,因 此采用优化函数进行筛选,优化函数为: [0065] [0066] π 其中,S表示状态空间,Q (s,a)表示在状态s时采用预设专家导航策略a 时的Q函 1 1 π 数,Q (s,a)表示在状态s时采用非专家导航策略a时的Q函数,Q函数表示未来奖励期望值。 [0067] 进一步地,加入惩罚项加快筛选过程的收敛速度,惩罚函数定义如下: [0068] [0069] 步骤S104,利用更新后的所述路径规划智能体,对所述机器人进行路径规划,得到 全局导航路径,所述全局导航路径用于对所述机器人进行导航控制。 [0070] 在本步骤中,筛选出最优奖赏函数后,将其作为路径规划智能体评估的标准,利用 梯度下降方法对路径规划智能体进行更新,并把得到的价值梯度作为策略网络更新的标 准。不断循环执行上述学习过程,最终规划出移动机器人的全局路径。 [0071] 本实施例以改进移动机器人导航路径规划方法的自主性和环境适应性为目标。相 比于传统的强化学习方法是求累积回报期望最大时的最优策略,在求解过程中立即回报是 人为给定的。然而,在移动机器人导航路径规划问题中,尤其是复杂的任务和场景中,立即 回报很难指定。事实上,人类在完成复杂的任务时,并没有显性的回报函数,本申请实施例 利用逆强化学习方法自主求解奖赏函数,使得奖赏函数描述任务的能力更强、泛化能力更 好以及使奖赏函数具有在不同智能体之间的可转移性。 [0072] 为了执行上述方法实施例对应的机器人视觉导航方法,以实现相应的功能和技术 效果。参见图2,图2示出了本申请实施例提供的一种机器人视觉导航装置的结构框图。为了 便于说明,仅示出了与本实施例相关的部分,本申请实施例提供的机器人视觉导航装置,包 括: 8 8 CN 114510031 A 说明书 6/8页 [0073] 检测模块201,用于对机器人采集到的视觉图像进行目标检测,提取所述视觉图像 中的动态对象信息和静态对象信息; [0074] 生成模块202,用于根据所述动态对象信息、所述静态对象信息和所述机器人的本 体信息,生成环境模型; [0075] 更新模块203,用于根据所述环境模型和预设专家导航策略的最优奖赏函数,更新 路径规划智能体; [0076] 规划模块204,用于利用更新后的所述路径规划智能体,对所述机器人进行路径规 划,得到全局导航路径,所述全局导航路径用于对所述机器人进行导航控制。 [0077] 在一实施例中,所述生成模块202,包括: [0078] 第一确定单元,用于确定所述动态对象信息和所述静态对象信息与所述本体信息 之间的实际位置关系; [0079] 避障单元,用于将所述实际位置关系结合预设的危险距离和最大感知距离,对所 述机器人进行避障判断,以建立所述环境模型。 [0080] 在一实施例中,所述更新模块203,包括: [0081] 第二确定单元,用于根据所述环境模型和所述机器人的当前状态信息,确定随机 模型预测控制器,所述随机模型预测控制器满足预设的最优控制成本函数; [0082] 第三确定单元,用于根据所述最优控制成本函数,确定所述预设专家导航策略的 最优奖赏函数; [0083] 更新单元,用于根据所述最优奖赏函数,对所述路径规划智能体进行更新。 [0084] 可选地,所述最优控制成本函数为: [0085] [0086] 其中,C 表示对速度施加的惩罚系数,C 表示对碰撞施加的惩罚系数,I为指 speed crach 示器函数,v 表示所述机器人在x方向上的实际速度, 表示所述机器人在x方向上的期望 x 速度,X 表示t时刻的状态信息。 t [0087] 在一实施例中,所述第三确定单元,包括: [0088] 确定子单元,用于根据所述最优控制成本函数和所述预设专家导航策略,确定所 述预设专家导航策略的奖赏函数集合; [0089] 优化子单元,用于利用优化函数,对所述奖赏函数集合进行优化,得到所述预设专 家导航策略的最优奖赏函数。 [0090] 可选地,所述奖赏函数集合中的每个奖赏函数满足预设条件,所述预设条件为: [0091] [0092] 表示所述预设专家导航策略的转移矩阵,p 表示非专家导航策略的转移矩阵, a I为指示器函数,R为所述奖赏函数,γ为折扣因子。 [0093] 可选地,所述优化函数为: [0094] [0095] π 其中,S表示状态空间,Q (s,a)表示在状态s时采用预设专家导航策略a 时的Q函 1 1 9 9 CN 114510031 A 说明书 7/8页 π 数,Q (s,a)表示在状态s时采用非专家导航策略a时的Q函数,Q函数表示未来奖励期望值。 [0096] 上述的机器人视觉导航装置可实施上述方法实施例的机器人视觉导航方法。上述 方法实施例中的可选项也适用于本实施例,这里不再详述。本申请实施例的其余内容可参 照上述方法实施例的内容,在本实施例中,不再进行赘述。 [0097] 图3为本申请一实施例提供的机器人的结构示意图。如图3所示,该实施例的机器 人3包括:至少一个处理器30(图3中仅示出一个)处理器、存储器31以及存储在所述存储器 31中并可在所述至少一个处理器30上运行的计算机程序32,所述处理器30执行所述计算机 程序32时实现上述任意方法实施例中的步骤。 [0098] 所述机器人3可以是扫地机器人、巡检机器人等计算设备。该机器人可包括但不仅 限于处理器30、存储器31。本领域技术人员可以理解,图3仅仅是机器人3的举例,并不构成 对机器人3的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部 件,例如还可以包括输入输出设备、网络接入设备等。 [0099] 所称处理器30可以是中央处理单元(Central Processing Unit,CPU),该处理器 30还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集 成电路(Application Specific  Integrated Circuit,ASIC)、现成可编程门阵列(Field- Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、 分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器 等。 [0100] 所述存储器31在一些实施例中可以是所述机器人3的内部存储单元,例如机器人3 的硬盘或内存。所述存储器31在另一些实施例中也可以是所述机器人3的外部存储设备,例 如所述机器人3上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字 (Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器31还可以既包括 所述机器人3的内部存储单元也包括外部存储设备。所述存储器31用于存储操作系统、应用 程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码 等。所述存储器31还可以用于暂时地存储已经输出或者将要输出的数据。 [0101] 另外,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质 存储有计算机程序,所述计算机程序被处理器执行时实现上述任意方法实施例中的步骤。 [0102] 本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行 时,使得终端设备执行时实现上述各个方法实施例中的步骤。 [0103] 在本申请所提供的几个实施例中,可以理解的是,流程图或框图中的每个方框可 以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多 个用于实现规定的逻辑功能的可执行指令。也应当注意的是,在有些作为替换的实现方式 中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框 实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。 [0104] 所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以 存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说 对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计 算机软件产品存储在一个存储介质中,包括若干指令用以使得一台终端设备执行本申请各 个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器 10 10 CN 114510031 A 说明书 8/8页 (ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘 等各种可以存储程序代码的介质。 [0105] 以上所述的具体实施例,对本申请的目的、技术方案和有益效果进行了进一步的 详细说明,应当理解,以上所述仅为本申请的具体实施例而已,并不用于限定本申请的保护 范围。特别指出,对于本领域技术人员来说,凡在本申请的精神和原则之内,所做的任何修 改、等同替换、改进等,均应包含在本申请的保护范围之内。 11 11 CN 114510031 A 说明书附图 1/2页 图1 图2 12 12 CN 114510031 A 说明书附图 2/2页 图3 13 13

  2、成为VIP后,下载本文档将扣除1次下载权益。下载后,AG真人国际不支持退款、换文档。如有疑问加。

  3、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。

  4、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档

  2.3河流(第2课时 长江的开发与治理)(课件)八年级地理上册(人教版).pptx

  五年(2020-2024)高考语文真题分类汇编(全国)专题14 语言文字运用(简答题组)(教师卷).docx

  原创力文档创建于2008年,本站为文档C2C交易模式,即用户上传的文档直接分享给其他用户(可下载、阅读),本站只是中间服务平台,本站所有文档下载所得的收益归上传人所有。原创力文档是网络服务平台方,若您的权利被侵害,请发链接和相关诉求至 电线) ,上传者

上一篇:AG真人国际(中国)官方网站CAAI-PR模式识别专家讲坛:

返回列表

下一篇:迈尔微视:为人形机器人视觉感知提供了精准解决方案