본문 바로가기

분류 전체보기66

Turtlebot Simulation : SLAM 이어서 다시 gazebo에 turtlebot burger 모델을 구동하고 시작한다. 환경은 world로 한다. export TURTLEBOT3_MODEL=burger roslaunch turtlebot3_gazebo turtlebot3_world.launch 조금 전과 같은 육각형의 맵이 나올 것이다. 여기서 다른 터미널에서 SLAM 노드를 킨다. export TURTLEBOT3_MODEL=burger roslaunch turtlebot3_slam turtlebot3_slam.launch slam_methods:=gmapping 이러면 오른쪽과 같은 mapping 이 rviz를 통해 나타난다. 현재 12시 근방에 위치한 터틀봇이 당장 라이다로 읽을 수 있는 map을 나타낸 것이며 여기서 다른 터미널을 켜.. 2022. 8. 22.
Turtlebot Simulation : Setup 이번에는 SLAM을 적용하기 위한 turtlebot simulation을 진행한다. 당장 터틀봇이 없기 때문에 시뮬레이션으로 시도 이후 동방에서 가져올 예정이다. ROBOTIS e-Manual 위 공식 매뉴얼을 참고하였다. 여기서 하드웨어와 관련된 부분 제외하고 정리한다. 가장 먼저 기본적으로 필요한 패키지를 다운로드받고 catkin_make로 환경을 구축한다. 하나라도 빼먹으면 이런 오류가 뜨니까 전부 다 하도록 한다. sudo apt-get install ros-noetic-joy ros-noetic-teleop-twist-joy \ ros-noetic-teleop-twist-keyboard ros-noetic-laser-proc \ ros-noetic-rgbd-launch ros-noetic-ros.. 2022. 8. 22.
Stanford CS234 Lecture 10 Stanford CS234: Reinforcement Learning | Winter 2019 | Lecture 10 continuing our discussion over Updating Parameters Given the Gradient Local Approximation we couldn’t calculate equation above because we had no clue of what $\tilde{\pi}$ is. So for approximation, we replace the term with previous policy. we take policy $\pi^i$ run it out, get $D$ trajectories and use them to obtain distribution .. 2022. 8. 12.
ROS Noetic : Server & Client 앞서서 ROS service를 활용해보았다. 이는 서버-클라이언트 구조와 흡사함을 알 수 있다. 이번에는 실제로 서버-클라이언트의 구조를 만들어본다. 일단은 앞서 만들었던 closed_loop의 turtle_controller를 이용하며 화면의 좌측에 있으면 붉은 색, 우측에 있으면 녹색의 자취를 나타내는 형태를 만들 것이다. 이전 코드를 가져와서 bold 처리된 줄들을 추가해준다. #!/usr/bin/env python3 import rospy from turtlesim.msg import Pose # output of turtlesim from geometry_msgs.msg import Twist # input for turtlesim class TurtleControl: def __init__(s.. 2022. 8. 11.
Stanford CS234 Lecture 9 Stanford CS234: Reinforcement Learning | Winter 2019 | Lecture 9 Continuing discussion about gradient descent, recall that our goal is to converge ASAP to a local optima. We want our policy update to be a monotonic improvement. → guarantees to converge (emphirical) → we simply don’t want to get fired... Recall last time, we expressed gradient of value function as below this term is unbiased but .. 2022. 8. 11.
Stanford CS234 Lecture 8 Stanford CS234: Reinforcement Learning | Winter 2019 | Lecture 8 Policy-Based Reinforcement Learning Recall last lecture → where we learned to find state-value($V$) or state-action value($Q$) for parameter $w$(or $\theta$) and use such to build (hopefully)optimal policy($\pi$) Today we’ll take that policy $\pi^\theta$ as parameter $$ \pi^\theta(s,a)=P[a|s;\theta] $$ our goal is to find a policy .. 2022. 8. 11.
반응형