|
1 | 1 | # [人形机器人仿真](https://github.com/google-deepmind/mujoco/network/dependents)
|
2 | 2 |
|
3 |
| -<!-- 共4581个仓库,更新到最新的仓库: https://github.com/JJulessNL/S7-RL |
4 |
| -更新到的页面: https://github.com/google-deepmind/mujoco/network/dependents?dependents_before=MzMzOTk2NjgxMDc --> |
| 3 | +<!-- 共4581个仓库,更新到最新的仓库: https://github.com/Badger-RL/ROPE |
| 4 | +更新到的页面: https://github.com/google-deepmind/mujoco/network/dependents?dependents_before=MzQxMDM2MTU5MzM --> |
5 | 5 |
|
6 | 6 | - [__Mujoco__](#Mujoco)
|
7 | 7 | - [人的建模](#humanoid_model)
|
|
89 | 89 |
|
90 | 90 | [online_hdif_ws](https://github.com/mateoguaman/online_hdif_ws)
|
91 | 91 |
|
| 92 | +[Faur 手控制](https://github.com/MihneaToader/RWR_control) |
| 93 | + |
92 | 94 | [适用于 ROS 机器人的 FastRLAP 实现、相关的 Gazebo 环境,以及用于越野驾驶的 MuJoCo 环境](https://github.com/kylestach/fastrlap-release)
|
93 | 95 |
|
94 | 96 | [一款一体化 ROS 软件包 RoTools](https://github.com/DrawZeroPoint/RoTools) - 用于高级机器人任务调度、视觉感知、路径规划、仿真以及直接/远程操控。它利用 BehaviorTree 实现快速的任务构建和协调,并提供各种实用程序来弥合真实/模拟机器人与高级任务调度程序之间的差距。
|
|
115 | 117 |
|
116 | 118 | [双足步行者的Gym环境](https://github.com/cameronpm1/bpwgym)
|
117 | 119 |
|
| 120 | +[PACER:行人动画控制器](https://github.com/nv-tlabs/pacer) |
| 121 | + |
118 | 122 | [机器人学习的模块化仿真框架和基准](https://github.com/ARISE-Initiative/robosuite) - 包括人形机器人
|
119 | 123 |
|
120 | 124 | [使用 mujoco 和类人神经机械模型(而非人形机器人)实现 DeepMimic](https://github.com/DanielCastillo03/DeepMimic_Research)
|
|
173 | 177 |
|
174 | 178 | [使用 Policy-Gradient 方法在 OpenAI-Gym 中训练代理](https://github.com/till2/policy-gradient-methods)
|
175 | 179 |
|
176 |
| -[在线强化学习算法](https://github.com/superboySB/mindspore-cleanrl) |
177 |
| - |
178 | 180 | [CQL_AWAC_ICQL](https://github.com/bvanbuskirk/CQL_AWAC_ICQL)
|
179 | 181 |
|
180 | 182 | [基于 DDPG Keras实现示例的 TD3](https://github.com/jnachyla/usd-proj)
|
181 | 183 |
|
182 |
| -[CleanRL 是一个深度强化学习库](https://github.com/gosu0rZzz/thesis_exp) |
183 |
| - |
184 | 184 | [基于 PyTorch 构建的强化学习算法的实现](https://github.com/kartik2309/RLPack) - 它已针对高负载工作负载进行了优化,后端支持 CUDA 和 OpenMP(取决于硬件可用性)
|
185 | 185 |
|
186 | 186 | [模块化单文件强化学习算法库](https://github.com/sdpkjc/abcdrl)
|
|
311 | 311 |
|
312 | 312 | [针对 CS285 的深度 Q 学习、Actor Critic 和 Soft Actor Critics 算法的实现](https://github.com/phongtheha/Reinforcement-Learning)
|
313 | 313 |
|
| 314 | +[实施监督 Actor-Critic 策略提炼作为其他迁移学习 RL 方法的基础](https://github.com/andbalch/policy-distillation) |
| 315 | + |
314 | 316 | [实现的主要算法是 Soft Actor-Critic (SAC)](https://github.com/tomaskak/neural)
|
315 | 317 |
|
316 | 318 | [强化学习的数学基础项目 03 - 连续控制](https://github.com/radajakub/soft-actor-critic)
|
|
597 | 599 |
|
598 | 600 | [仿生鼠机器人跨越多种地形工作](https://github.com/GrumpySloths/ForCode)
|
599 | 601 |
|
| 602 | +[跳跃机器人 使用MuJoCo研究跳跃机器人腿部机构设计](https://github.com/changqiy/robot) |
| 603 | + |
600 | 604 | [使用MuJoCo研究跳跃机器人腿部机构设计](https://github.com/yinfanyi/hopper)
|
601 | 605 |
|
602 | 606 | [使用变分自编码器 (VAE) 和生成对抗网络 (GAN) 等深度学习人工智能算法,可以使用训练数据集自动创建新的游戏内容](https://github.com/RusherRG/RLGymBoost)
|
603 | 607 |
|
604 | 608 | [用于 RL 的生成细胞自动机类学习环境](https://github.com/smearle/autoverse)
|
605 | 609 |
|
| 610 | +[用于评估强化学习代理的适应和探索的环境](https://github.com/izkula/adaptgym) |
| 611 | + |
606 | 612 | [IsaacGym 环境示例 KukaTwoArms](https://github.com/intelligent-control-lab/guardX)
|
607 | 613 |
|
608 | 614 | [CathSim:一种用于血管内介入的开源模拟器](https://github.com/airvlab/cathsim)
|
|
649 | 655 |
|
650 | 656 | [对于 safe_exploration 任务,既需要数据多样性,又需要在线训练安全保障](https://github.com/JackQin007/Safe_Exploration)
|
651 | 657 |
|
| 658 | +[PyTorch 机器人运动学](https://github.com/UM-ARM-Lab/pytorch_kinematics) |
| 659 | + |
| 660 | +[用于模仿学习的记忆一致神经网络](https://github.com/kaustubhsridhar/MCNN) - [其他1](https://github.com/mem-net/MCNN) |
| 661 | + |
| 662 | +[TimewarpVAE:同时进行时间扭曲和轨迹表征学习](https://github.com/anonymousauthor913/iclr2024submission) |
| 663 | + |
| 664 | +[基于像素观测的状态安全强化学习](https://github.com/SimonZhan-code/Step-Wise_SafeRL_Pixel) |
| 665 | + |
652 | 666 | [带有注意力缓存和批量束搜索的轨迹变换器实现](https://github.com/Howuhh/faster-trajectory-transformer)
|
653 | 667 |
|
654 | 668 | [深海宝藏问题中采用帕累托主导策略的多目标强化学习](https://github.com/GiovaniCenta/cityflowpql)
|
|
783 | 797 |
|
784 | 798 | [Open AI Gym 基础教程](https://github.com/mahen2-cmd/Open-AI-Gym-Basic-Tutorial)
|
785 | 799 |
|
| 800 | +[介绍机器人系统(主要为全驱动系统)控制的入门课程](https://github.com/simeon-ned/forc) |
| 801 | + |
786 | 802 | [适合所有人的人工智能书籍](https://github.com/YeonwooSung/ai_book)
|
787 | 803 |
|
788 | 804 | [学习-强化学习](https://github.com/ayton-zhang/Learning-Reinforcement-Learning)
|
|
794 | 810 |
|
795 | 811 | ## 学习 <span id="learning"></span>
|
796 | 812 |
|
797 |
| -[伯克利 CS 285的作业:深度强化学习、决策和控制](https://github.com/Roger-Li/ucb_cs285_homework_fall2023) - [其他1](https://github.com/LuK2019/DeepRL) 、[其他2](https://github.com/aayushg55/cs285_hw1_dagger) 、[其他3](https://github.com/berkeleydeeprlcourse/homework_fall2023) 、[其他4](https://github.com/carola-niu/RL_cs285) 、 [其他5](https://github.com/Manaro-Alpha/CS285_DeepRL_hw_sols) 、[其他6](https://github.com/Hoponga/cs285) 、 [其他7](https://github.com/anna-ssi/UCBerkley-CS285-homework-2021) 、[其他8](https://github.com/anna-ssi/UCBerkley-CS285-homework-2021) 、[其他9](https://github.com/Applewonder/CS285-2022) 、[其他10](https://github.com/Arenaa/CS-285) 、[其他11](https://github.com/brunonishimoto/cs285-drl) 、 [其他12](https://github.com/ElPescadoPerezoso1291/cs285-hw3) 、 [其他13](https://github.com/dylan-goetting/RL285) 、 [其他14](https://github.com/nikhil-pitta/CS285Hw) 、[其他15](https://github.com/prestonmccrary/temp) 、 [其他16](https://github.com/jnzhao3/Behavior-Cloning-with-MuJoCo) 、[其他17](https://github.com/levje/cs285_fall2023) 、[其他18](https://github.com/prestonmccrary/garbage) 、[其他19](https://github.com/WangYCheng23/rl_cs285_hw) 、[其他20](https://github.com/nicholaschenai/cs285_2022_soln) |
| 813 | +[伯克利 CS 285的作业:深度强化学习、决策和控制](https://github.com/Roger-Li/ucb_cs285_homework_fall2023) - [其他1](https://github.com/LuK2019/DeepRL) 、[其他2](https://github.com/aayushg55/cs285_hw1_dagger) 、[其他3](https://github.com/berkeleydeeprlcourse/homework_fall2023) 、[其他4](https://github.com/carola-niu/RL_cs285) 、 [其他5](https://github.com/Manaro-Alpha/CS285_DeepRL_hw_sols) 、[其他6](https://github.com/Hoponga/cs285) 、 [其他7](https://github.com/anna-ssi/UCBerkley-CS285-homework-2021) 、[其他8](https://github.com/anna-ssi/UCBerkley-CS285-homework-2021) 、[其他9](https://github.com/Applewonder/CS285-2022) 、[其他10](https://github.com/Arenaa/CS-285) 、[其他11](https://github.com/brunonishimoto/cs285-drl) 、 [其他12](https://github.com/ElPescadoPerezoso1291/cs285-hw3) 、 [其他13](https://github.com/dylan-goetting/RL285) 、 [其他14](https://github.com/nikhil-pitta/CS285Hw) 、[其他15](https://github.com/prestonmccrary/temp) 、 [其他16](https://github.com/jnzhao3/Behavior-Cloning-with-MuJoCo) 、[其他17](https://github.com/levje/cs285_fall2023) 、[其他18](https://github.com/prestonmccrary/garbage) 、[其他19](https://github.com/WangYCheng23/rl_cs285_hw) 、[其他20](https://github.com/nicholaschenai/cs285_2022_soln) 、 |
798 | 814 |
|
799 | 815 | [采样策略梯度扩展](https://github.com/BharathRajM/Sampled-Policy-Gradient-and-variants)
|
800 | 816 |
|
| 817 | +[一个专门用于学习使用 Half Cheetah 模型进行强化学习的存储库](https://github.com/GustavoSanches55/HalfCheetah) |
| 818 | + |
| 819 | +[面向初学者的深度学习资料](https://github.com/KEIO-ALS/Lecture_DeepLearning) |
| 820 | + |
| 821 | +[学习走路](https://github.com/kenma8/LearningToWalk) |
| 822 | + |
801 | 823 | [用于试验模拟器以举办第二届人工智能大奖赛的存储库](https://github.com/FT-Autonomous/ft_grandprix)
|
802 | 824 |
|
803 | 825 | [CMU 16-831 机器人学习简介的作业](https://github.com/shriishwaryaa/Introduction-to-Robot-Learning)
|
|
806 | 828 |
|
807 | 829 | [CS 285 作业](https://github.com/LeslieTrue/cs285_fall22_hw_sol)
|
808 | 830 |
|
| 831 | +[机器人相关课程](https://github.com/waris8/courses) |
| 832 | + |
809 | 833 | [通过传统的机器学习方法和强化学习解决课程作业任务](https://github.com/RabbltMan/MachineLearningCoursework)
|
810 | 834 |
|
811 | 835 | [CMU 16-831 机器人学习简介的作业](https://github.com/chaitanya1chawla/16831_F23_HW)
|
|
967 | 991 |
|
968 | 992 | [基于物理的乒乓球](https://github.com/AayushSabharwal/physics-pong)
|
969 | 993 |
|
970 |
| -[空气曲棍球挑战赛](https://github.com/AirHockeyChallenge/air_hockey_challenge) |
| 994 | +[空气曲棍球挑战赛](https://github.com/AirHockeyChallenge/air_hockey_challenge) 、[其他](https://github.com/thomasbonenfant/air_hockey_challenge) 、[其他2](https://github.com/Elizabeth-Palacios/Curriculum) 、[其他3](https://github.com/hzm2016/sea_robot_sim) |
971 | 995 |
|
972 | 996 | [可用于开发机器人 3D 装箱问题的求解器的gym环境](https://github.com/floriankagerer/bed-bpp-env)
|
973 | 997 |
|
|
1073 | 1097 |
|
1074 | 1098 | [包含 REINFORCE、AC2、SAC 和 PPO 等热门算法的实现,并集成到 Gymnasium 环境](https://github.com/zachoines/RL-Grimoire)
|
1075 | 1099 |
|
| 1100 | +[七种机器人模型、八种夹爪模型、六种控制器模式和九种标准化任务](https://github.com/lemonlemonde/robosuite1.4-modded) |
| 1101 | + |
1076 | 1102 | [ReDMan 是一个开源模拟平台,为可靠的灵巧操作提供了安全 RL 算法的标准化实现](https://github.com/PKU-Alignment/ReDMan)
|
1077 | 1103 |
|
1078 | 1104 | [Ray 由一个核心分布式运行时和一组用于加速 ML 工作负载的 AI 库组成](https://github.com/ray-project/ray)
|
|
1104 | 1130 |
|
1105 | 1131 | [流行的 DRL 算法的简单实现](https://github.com/HengLuRepos/lighter-RL)
|
1106 | 1132 |
|
1107 |
| -[样本高效机器人强化学习软件套件](https://github.com/serl-robot/serl) |
| 1133 | +[SERL:用于样本高效机器人强化学习的软件套件](https://github.com/serl-robot/serl) |
1108 | 1134 |
|
1109 | 1135 | [为许多有用的机器人库提供通用 API](https://github.com/Tass0sm/corallab-lib)
|
1110 | 1136 |
|
|
1130 | 1156 |
|
1131 | 1157 | [Transformer (TIT) 中 Transformer 作为深度强化学习骨干的官方实现](https://github.com/anonymoussubmission321/TIT_anonymous)
|
1132 | 1158 |
|
1133 |
| -[深度强化学习库,提供高质量的单文件实现](https://github.com/IanWangg/CleanRL-Projects) - [其他](https://github.com/eleninisioti/dirtyrl) 、 [其他2](CleanRL:深度强化学习算法的高质量单文件实现) |
| 1159 | +[cleanrl 具有研究友好特性的深度强化学习算法的高质量单文件实现(PPO、DQN、C51、DDPG、TD3、SAC、PPG)](https://github.com/IanWangg/CleanRL-Projects) - [其他](https://github.com/eleninisioti/dirtyrl) 、 [其他2](CleanRL:深度强化学习算法的高质量单文件实现) 、 [其他3](https://github.com/jyoung2247/dl_project) 、[其他4](分布式、循环、深度强化学习算法的最小实现) 、[其他5](https://github.com/vwxyzjn/cleanrl) 、[其他6](https://github.com/superboySB/mindspore-cleanrl) 、 [其他7](https://github.com/gosu0rZzz/thesis_exp) |
1134 | 1160 |
|
1135 | 1161 | [基于 OpenAI 的 RL 库](https://github.com/MnSBlog/Pinokio.RL)
|
1136 | 1162 |
|
|
1166 | 1192 |
|
1167 | 1193 | [OpenAI Gym 环境使用 pybullet 来制作Tyrannosaur](https://github.com/bingjeff/trex-gym)
|
1168 | 1194 |
|
1169 |
| -[具有研究友好特性的深度强化学习算法的高质量单文件实现(PPO、DQN、C51、DDPG、TD3、SAC、PPG)](https://github.com/vwxyzjn/cleanrl) |
1170 |
| - |
1171 | 1195 | [通用人工智能实验室开发的容器](https://github.com/HorizonRoboticsInternal/gail-container)
|
1172 | 1196 |
|
1173 | 1197 | [强化学习库之间的互操作](https://github.com/epignatelli/helx)
|
|
1206 | 1230 |
|
1207 | 1231 | [使用 mujoco 进行 DOQ 模拟](https://github.com/griffinaddison/doq_viz)
|
1208 | 1232 |
|
| 1233 | +[使用 GP 作为探索指标](https://github.com/contagon/gp4expl) |
| 1234 | + |
1209 | 1235 | [高级软件实践](https://github.com/YongBonJeon/Advanced-Software-Practices)
|
1210 | 1236 |
|
1211 |
| -[DRL-AirHockey](https://github.com/zhalehmehrabi/DRL-AirHockey) |
| 1237 | +[DRL-AirHockey](https://github.com/zhalehmehrabi/DRL-AirHockey) - [其他1](https://github.com/ShuoZheLi/air_hockey_challenge_robosuite) |
1212 | 1238 |
|
1213 | 1239 | [RoboDog项目](https://github.com/Stblacq/robodog)
|
1214 | 1240 |
|
| 1241 | +[231A_project](https://github.com/johnviljoen/231A_project) |
| 1242 | + |
| 1243 | +[cs340lab4](https://github.com/Dylan920424/cs340lab4) |
| 1244 | + |
| 1245 | +[DPC_for_robotics](https://github.com/pnnl/DPC_for_robotics) |
| 1246 | + |
| 1247 | +[talar-openreview-fork](https://github.com/ezhang7423/talar-openreview-fork) |
| 1248 | + |
| 1249 | +[pytorch-TD3fG-fast](https://github.com/www8098/pytorch-TD3fG-fast) |
| 1250 | + |
1215 | 1251 | [symmetry-cs285-2](https://github.com/YasinSonmez/symmetry-cs285-2)
|
1216 | 1252 |
|
1217 | 1253 | [training-gym](https://github.com/joshbrowning2358/training-gym)
|
|
1220 | 1256 |
|
1221 | 1257 | [SIMCSUM](https://github.com/MehwishFatimah/SimCSum)
|
1222 | 1258 |
|
| 1259 | +[mb-强化](https://github.com/nhaij/mb-reinforcement) |
| 1260 | + |
1223 | 1261 | [CQLEnsemble](https://github.com/XGsombra/CQLEnsemble)
|
1224 | 1262 |
|
1225 | 1263 | [factored-rl-ppo-handson](https://github.com/davera-017/factored-rl-ppo-handson)
|
|
0 commit comments