Skip to content

Commit ee8fdfc

Browse files
committed
基于 Web 的模拟环境可视化工具
1 parent 0935da5 commit ee8fdfc

File tree

1 file changed

+35
-4
lines changed

1 file changed

+35
-4
lines changed

docs/pedestrian/humanoid.md

Lines changed: 35 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -293,6 +293,8 @@
293293

294294
[dqn-探索-集成](https://github.com/pranavkrishnamoorthi/dqn-exploration-ensemble)
295295

296+
[targeted-double-q-learning](https://github.com/alishiraliGit/targeted-double-q-learning)
297+
296298
[使用 OpenAI gym 环境训练 DQN 的简单脚本](https://github.com/eyalhagai12/simple_dqn)
297299

298300
[DQN_AC](https://github.com/bvanbuskirk/DQN_AC)
@@ -452,6 +454,8 @@
452454

453455
[利用“任何事物分割”模型进行通用视觉强化学习](https://github.com/wadiuvatzy/SAM-G)
454456

457+
[盲文识别](https://github.com/takaya-hirano-hayashibeLabo/braille-recognition)
458+
455459
[动作捕捉环境](https://github.com/hartikainen/mocap-environments)
456460

457461

@@ -537,6 +541,8 @@
537541

538542
[专注于使用稳定基线 3方法和Gymnasium界面进行目标条件强化学习](https://github.com/Scilab-RL/Scilab-RL) - [其他](https://github.com/meppe/Scilab-rl)
539543

544+
[GUARD :通用统一安全强化学习开发基准](https://github.com/intelligent-control-lab/guard)
545+
540546
[d4rl-slim-benchmark](https://github.com/dtch1997/d4rl-slim-benchmark)
541547

542548
[mujoco_test](https://github.com/Geryyy/mujoco_test)
@@ -675,6 +681,8 @@
675681

676682
[从示例对象轨迹和预抓取中学习灵巧操作](https://github.com/ishaanshah15/TCDMdev)
677683

684+
[解决情境强化学习的新方法](https://github.com/rpanackal/rl-msc-pro)
685+
678686
[对于 safe_exploration 任务,既需要数据多样性,又需要在线训练安全保障](https://github.com/JackQin007/Safe_Exploration)
679687

680688
[PyTorch 机器人运动学](https://github.com/UM-ARM-Lab/pytorch_kinematics)
@@ -739,8 +747,6 @@
739747

740748
[自适应强化学习的表征学习](https://github.com/stevenabreu7/adaptiveRL2) - 使用可微分可塑性、状态空间模型和深度强化学习
741749

742-
[用示例代替奖励:通过递归分类进行基于示例的策略搜索 的 pytorch 实现](https://github.com/Ricky-Zhu/RCE)
743-
744750
[具有大型语言模型的辩证多机器人协作](https://github.com/MandiZhao/robot-collab)
745751

746752
[通过多任务策略提炼解决任务干扰](https://github.com/AndreiLix/mutlitask_policy_distillation)
@@ -791,8 +797,6 @@
791797

792798
[机器人环境的安全迁移学习](https://github.com/f-krone/SafeTransferLearningInChangingEnvironments)
793799

794-
[基于 DeepMind Control Suite 实现的具有变化奖励和动态的上下文 MDP](https://github.com/SAIC-MONTREAL/contextual-control-suite)
795-
796800
[SIMCSUM](https://github.com/timkolber/mtl_sum)
797801

798802
[研究基于模型的强化学习中的不确定性量化](https://github.com/aidanscannell/unc-mbrl)
@@ -814,6 +818,15 @@
814818
[稳定神经近似的逆向经验重放](https://github.com/google-research/look-back-when-surprised) - [其他](https://github.com/llv22/google-research-forward)
815819

816820

821+
### 奖励
822+
823+
[规律性作为自由游戏的内在奖励](https://github.com/martius-lab/rair-mbrl)
824+
825+
[基于 DeepMind Control Suite 实现的具有变化奖励和动态的上下文 MDP](https://github.com/SAIC-MONTREAL/contextual-control-suite)
826+
827+
[用示例代替奖励:通过递归分类进行基于示例的策略搜索 的 pytorch 实现](https://github.com/Ricky-Zhu/RCE)
828+
829+
817830
## 毕业论文 <span id="contest"></span>
818831

819832
[利用 MARL 技术分解大动作空间来加速学习](https://github.com/QuimMarset/TFM)
@@ -858,6 +871,14 @@
858871

859872
[cs285](https://github.com/johnviljoen/cs285)
860873

874+
[CS 285 最终项目:基于连续时间模型的强化学习中的动态学习的神经常微分方程](https://github.com/ZekaiWang04/cs285_proj)
875+
876+
[交互式机器人学习课程项目](https://github.com/LeonardoWjq/NP-RAM)
877+
878+
[CS285 最终项目](https://github.com/skrider/draftsman)
879+
880+
[CS285](https://github.com/ayton-zhang/CS285)
881+
861882
[CS 285 作业](https://github.com/LeslieTrue/cs285_fall22_hw_sol)
862883

863884
[机器人相关课程](https://github.com/waris8/courses)
@@ -866,6 +887,8 @@
866887

867888
[CMU 16-831 机器人学习简介的作业](https://github.com/chaitanya1chawla/16831_F23_HW)
868889

890+
[自己实现的深度强化学习算法](https://github.com/minghongx/deeprl)
891+
869892
[CS 285 最终项目:双人不完美信息合作博弈的强化学习](https://github.com/edwardneo/collaboration-strategy)
870893

871894
[实用机器学习与深度学习](https://github.com/dinarayaryeva/pml-dl)
@@ -1037,6 +1060,8 @@
10371060

10381061
[与 ROS NIAS-API 类似的 CoppeliaSim 机器人模拟器的绑定](https://github.com/knowledgetechnologyuhh/nicol_coppeliasim)
10391062

1063+
[实现 DDPG 进行简单的倒水](https://github.com/yashas-salankimatt/csce642-finalproj)
1064+
10401065
[竞技体育的两步法:以击剑为例](https://github.com/YCK1130/IMRL-HF)
10411066

10421067
[曲棍球环境中的强化学习](https://github.com/JSteegmueller/The-Q-Learners)
@@ -1162,6 +1187,8 @@
11621187

11631188
[将 URDF 模型转换为 MJCF 模型的实用工具](https://github.com/ipa320/urdf2mjcf)
11641189

1190+
[基于 Web 的模拟环境可视化工具](https://github.com/NVlabs/sim-web-visualizer)
1191+
11651192
[一个基于 C++ 的批处理环境池 EnvPool](https://github.com/sail-sg/envpool) - 基于 C++ 的高性能并行环境执行引擎(矢量化环境),适用于通用 RL 环境
11661193

11671194
[用于强化学习的机器人模拟环境集合](https://github.com/Farama-Foundation/Gymnasium-Robotics)
@@ -1286,6 +1313,8 @@
12861313

12871314
[RoboDog项目](https://github.com/Stblacq/robodog)
12881315

1316+
[network-plasticity](https://github.com/arjunpat/network-plasticity)
1317+
12891318
[many_gamma](https://github.com/samlobel/many_gamma)
12901319

12911320
[231A_project](https://github.com/johnviljoen/231A_project)
@@ -1294,6 +1323,8 @@
12941323

12951324
[强化学习研究](https://github.com/fredsonaguiar/bang_bang_mountain_car)
12961325

1326+
[rl_learning](https://github.com/yuxuehui/rl_learning)
1327+
12971328
[DPC_for_robotics](https://github.com/pnnl/DPC_for_robotics)
12981329

12991330
[talar-openreview-fork](https://github.com/ezhang7423/talar-openreview-fork)

0 commit comments

Comments
 (0)