国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

isaacgym(legged_gym)學習 (一)—— 添加自己的機器人模型并訓練

這篇具有很好參考價值的文章主要介紹了isaacgym(legged_gym)學習 (一)—— 添加自己的機器人模型并訓練。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

isaacgym(legged_gym)學習 (一)—— 添加自己的機器人模型并訓練


提示:寫完文章后,目錄可以自動生成,如何生成可參考右邊的幫助文檔


前言

例如:isaacgym系列學習記錄。


這里默認已經安裝好isaacgym學習環(huán)境,并可以成功運行其中的案例

一、獲取你機器人的urdf文件

這里我以宇數科技的GO2機器人為例,去其官網下載GO2的urdf文件

下載好了urdf文件,將其中resources/robots/go2文件復制到legged_gym/resources/robots/目錄下

二、配置GO2機器人的學習環(huán)境

1.建立配置文件

在legged_gym/legged_gym/envs/目錄下建立一個go2文件夾,然后在go2文件夾中建立一個go2_config.py的配置文件,如下:

from legged_gym.envs.base.legged_robot_config import LeggedRobotCfg, LeggedRobotCfgPPO

class GO2RoughCfg( LeggedRobotCfg ):
    class init_state( LeggedRobotCfg.init_state ):
        pos = [0.0, 0.0, 0.42] # x,y,z [m]
        default_joint_angles = { # = target angles [rad] when action = 0.0
            'FL_hip_joint': 0.1,   # [rad]
            'RL_hip_joint': 0.1,   # [rad]
            'FR_hip_joint': -0.1 ,  # [rad]
            'RR_hip_joint': -0.1,   # [rad]

            'FL_thigh_joint': 0.8,     # [rad]
            'RL_thigh_joint': 1.,   # [rad]
            'FR_thigh_joint': 0.8,     # [rad]
            'RR_thigh_joint': 1.,   # [rad]

            'FL_calf_joint': -1.5,   # [rad]
            'RL_calf_joint': -1.5,    # [rad]
            'FR_calf_joint': -1.5,  # [rad]
            'RR_calf_joint': -1.5,    # [rad]
        }

    class control( LeggedRobotCfg.control ):
        # PD Drive parameters:
        control_type = 'P'
        stiffness = {'joint': 20.}  # [N*m/rad]
        damping = {'joint': 0.5}     # [N*m*s/rad]
        # action scale: target angle = actionScale * action + defaultAngle
        action_scale = 0.25
        # decimation: Number of control action updates @ sim DT per policy DT
        decimation = 4

    class asset( LeggedRobotCfg.asset ):
        file = '{LEGGED_GYM_ROOT_DIR}/resources/robots/go2/urdf/go2.urdf'
        name = "go2"
        foot_name = "foot"
        penalize_contacts_on = ["thigh", "calf"]
        terminate_after_contacts_on = ["base"]
        self_collisions = 1 # 1 to disable, 0 to enable...bitwise filter
  
    class rewards( LeggedRobotCfg.rewards ):
        soft_dof_pos_limit = 0.9
        base_height_target = 0.25
        class scales( LeggedRobotCfg.rewards.scales ):
            torques = -0.0002
            dof_pos_limits = -10.0

class GO2RoughCfgPPO( LeggedRobotCfgPPO ):
    class algorithm( LeggedRobotCfgPPO.algorithm ):
        entropy_coef = 0.01
    class runner( LeggedRobotCfgPPO.runner ):
        run_name = ''
        experiment_name = 'rough_go2'

這個配置文件,重點關注 class asset類和class runner( LeggedRobotCfgPPO.runner ):

2.添加到task_registry

from legged_gym import LEGGED_GYM_ROOT_DIR, LEGGED_GYM_ENVS_DIR
from legged_gym.envs.a1.a1_config import A1RoughCfg, A1RoughCfgPPO
from .base.legged_robot import LeggedRobot
from .anymal_c.anymal import Anymal
from .anymal_c.mixed_terrains.anymal_c_rough_config import AnymalCRoughCfg, AnymalCRoughCfgPPO
from .anymal_c.flat.anymal_c_flat_config import AnymalCFlatCfg, AnymalCFlatCfgPPO
from .anymal_b.anymal_b_config import AnymalBRoughCfg, AnymalBRoughCfgPPO
from .cassie.cassie import Cassie
from .cassie.cassie_config import CassieRoughCfg, CassieRoughCfgPPO
from .a1.a1_config import A1RoughCfg, A1RoughCfgPPO
from .go2.go2_config import GO2RoughCfg, GO2RoughCfgPPO   # 添加的

import os

from legged_gym.utils.task_registry import task_registry

task_registry.register( "anymal_c_rough", Anymal, AnymalCRoughCfg(), AnymalCRoughCfgPPO() )
task_registry.register( "anymal_c_flat", Anymal, AnymalCFlatCfg(), AnymalCFlatCfgPPO() )
task_registry.register( "anymal_b", Anymal, AnymalBRoughCfg(), AnymalBRoughCfgPPO() )
task_registry.register( "a1", LeggedRobot, A1RoughCfg(), A1RoughCfgPPO() )
task_registry.register( "cassie", Cassie, CassieRoughCfg(), CassieRoughCfgPPO() )
task_registry.register( "go2", LeggedRobot, GO2RoughCfg(), GO2RoughCfgPPO() )  # 添加的

添加上面代碼中帶#添加的注釋的兩段代碼,
到此,就可以運行下面代碼訓練你的機器人:

python train.py --task=go2 --num_env=3000 --headless

運行下面代碼,驗證你訓練的模型:

python play.py --task=go2

總結

提示:這里對文章進行總結:
legged_gym, 整體來說對于快速上手還是很友好的。文章來源地址http://www.zghlxwxcb.cn/news/detail-828087.html

到了這里,關于isaacgym(legged_gym)學習 (一)—— 添加自己的機器人模型并訓練的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 飛書開發(fā)學習筆記(七)-添加機器人及發(fā)送webhook消息

    飛書開發(fā)學習筆記(七)-添加機器人及發(fā)送webhook消息

    1.1 添加飛書機器人過程 在群的右上角點擊折疊按鍵…選擇 設置 群機器人中選擇 添加機器人 選擇自定義機器人,通過webhook發(fā)送消息 彈出的信息中有webhook地址,選擇復制。 安全設置后續(xù)可以設置,比如將信任的IP地址加入IP白名單。 選擇僅群主和添加者可以編輯移除機器人

    2024年02月05日
    瀏覽(22)
  • 機器人仿真-gazebo學習筆記(4)xacro和傳感器添加

    機器人仿真-gazebo學習筆記(4)xacro和傳感器添加

    URDF文件不具備代碼復用的特性(在上一篇文章也能發(fā)現(xiàn),其實左右輪是極其相似的但還是要單獨描述),一個復雜的機器人模型會擁有大量了的傳感器和關節(jié)組件,這時候使用URDF文件就太難閱讀了。精簡化、可復用、模塊化的xacro文件來了。 1.優(yōu)勢: ·精簡模型代碼: xacro是一

    2024年02月06日
    瀏覽(101)
  • gym庫文檔學習(一)

    gym庫文檔學習(一)

    最近老板突然讓我編寫一個自定義的強化學習環(huán)境,一頭霧水(煩),沒辦法,硬著頭皮啃官方文檔咯~ 第一節(jié)先學習常用的API: 在 Gym 中初始化環(huán)境非常簡單,可以通過以下方式完成: Gym 實現(xiàn)了經典的“代理環(huán)境循環(huán)”: 代理在環(huán)境中執(zhí)行一些動作(通常通過將一些控制

    2024年02月05日
    瀏覽(20)
  • gym庫文檔學習(二)

    gym庫文檔學習(二)

    本文檔概述了為創(chuàng)建新環(huán)境而設計的 Gym 中包含的創(chuàng)建新環(huán)境和相關有用的裝飾器、實用程序和測試。您可以克隆 gym-examples 以使用此處提供的代碼。建議使用虛擬環(huán)境: 在學習如何創(chuàng)建自己的環(huán)境之前,您應該查看 Gym 的 API 文檔。鏈接: https://blog.csdn.net/weixin_45985148/articl

    2023年04月16日
    瀏覽(17)
  • 強化學習環(huán)境升級 - 從gym到Gymnasium

    作為強化學習最常用的工具,gym一直在不停地升級和折騰,比如gym[atari]變成需要要安裝接受協(xié)議的包啦,atari環(huán)境不支持Windows環(huán)境啦之類的,另外比較大的變化就是2021年接口從gym庫變成了gymnasium庫。讓大量的講強化學習的書中介紹環(huán)境的部分變得需要跟進升級了。 不過,不

    2024年02月08日
    瀏覽(22)
  • 并行環(huán)境讓采樣速度快兩個量級:Isaac Gym提速強化學習

    并行環(huán)境讓采樣速度快兩個量級:Isaac Gym提速強化學習

    仿真環(huán)境的 采樣速度慢 ,是強化學習的一個瓶頸。例如,論文中常用的 MuJoCo 環(huán)境,臺式機或服務器的 CPU 上運行仿真環(huán)境,一小時大概采集十萬或百萬步(1e5 或 1e6 步);訓練一個智能體(收斂后)需要十多個小時。 加快仿真環(huán)境的采樣速度,通常有以下方法: 增加并行

    2024年02月16日
    瀏覽(20)
  • Pytorch深度強化學習:Gym安裝與環(huán)境搭建教程(附基本指令表)

    Pytorch深度強化學習:Gym安裝與環(huán)境搭建教程(附基本指令表)

    本專欄重點介紹強化學習技術的數學原理,并且 采用Pytorch框架對常見的強化學習算法、案例進行實現(xiàn) ,幫助讀者理解并快速上手開發(fā)。同時,輔以各種機器學習、數據處理技術,擴充人工智能的底層知識。 ??詳情:《Pytorch深度強化學習》 強化學習是在潛在的不確定復雜環(huán)

    2024年02月05日
    瀏覽(28)
  • Python深度強化學習實戰(zhàn) ——OpenAI Gym-CarRacing自動駕駛項目

    Python深度強化學習實戰(zhàn) ——OpenAI Gym-CarRacing自動駕駛項目

    ????? ?? 寫在前面: 本篇是關于 OpenAI Gym-CarRacing?自動駕駛項目的博客,面向掌握 Python 并有一定的深度強化學習基礎的讀者。 GYM-Box2D CarRacing 是一種在 OpenAI Gym 平臺上開發(fā)和比較強化學習算法的模擬環(huán)境。它是流行的 Box2D 物理引擎的一個版本,經過修改以支持模擬汽車在

    2024年02月16日
    瀏覽(28)
  • 【動手學強化學習】安裝gym subprocess-exited-with-error

    以下內容均在ubuntu18.0.4環(huán)境使用 最近在看《動手學強化學習》安裝運行相關的gym環(huán)境時候遇到了一些問題。 1、文中使用gym為== 0.18.3 該版本 支持 python3.8, python3.9 使用會有問題,env.seed()無法直接使用。(使用3.8.16 可成功運行文中代碼) 2、在linux下本來已經安裝了一個pyth

    2024年02月11日
    瀏覽(25)
  • Anaconda+PyCharm+PyTorch+Gym深度強化學習環(huán)境搭建 送新手直接送進煉丹爐

    Anaconda+PyCharm+PyTorch+Gym深度強化學習環(huán)境搭建 送新手直接送進煉丹爐

    需要下載的軟件和包: Anaconda Pycharm Python PyTorch gym pygame 直接從官網下載: https://www.anaconda.com https://www.anaconda.com/ 點擊Download下載即可。 下載好后,打開安裝包,自己選一個安裝路徑,默認路徑也行,放其他盤也行,我安裝在D盤下的Anaconda文件夾下。 安裝向導一路下一步即可

    2024年02月06日
    瀏覽(100)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包