본문 바로가기

ROBOTICS27

이론 : 2D & 3D Frame Transformation 로봇의 위치와 바라보는 방향을 합쳐서 Pose라고 한다. Pose는 position과 orientation으로 구성되며 기준이 되는 reference frame을 필요로 한다. 가령 world frame(F{w})을 상에 아래와 같은 로봇이 위치한다면 이는 F{w}의 (0,0)을 기준으로 그 위치와 orientation을 설명할 수 있다. 실제 로봇의 경우 센서를 통해 감지되는 물체를 판단할 때 스스로를 새로운 frame(F{R})의 중심으로 해당 물체의 위치를 판단한다. 이 때 global frame 상에서의 물체의 위치는 robot frame에서의 좌표와는 다를 것이다. 2D 환경에서 고정된 global frame을 기준으로 새로운 frame이 발생할 때 이동한 frame 은 Translation과 .. 2022. 10. 1.
Turtlebot3 Camera + OpenCV installation 터틀봇 주행 시 차선 확인 및 표지판 인식을 구현하기 위해 카메라를 마운트해야 한다. 환경은 아래와 같다. - Raspberry Pi 4B 4Gb(8Gb는 Ubuntu server가 불안정하다) - Ubuntu Server 20.04 + ROS Noetic Ninjemys - YR-019 광각 카메라(추정) 일단 카메라 인식시키는 것부터 시작한다. Ubuntu 18.04 이미지의 경우 카메라 자체가 인식이 안된다. 이 경우 로보티즈에서 제공한 이미지 내부에 그래픽 커널이 없는 듯 했다. 리본 케이블로 카메라를 연결하고 인식 여부부터 확인한다. ssh로 접근해서 아래 명령으로 디바이스 인식을 확인할 수 있다. ls /dev/ | grep video video0이 잡히면 정상이다. 이제 OpenCV를 사용하.. 2022. 9. 30.
Turtlebot3 Autorace Simulation install all required packages for simulation cd ~/robot_ws/src/ git clone cd ~/robot_ws && catkin_make turtlebot3_simulations 패키지는 있다고 생각하고 넘어간다. simulation 먼저 경기장 gazebo 모델을 소환한다. roslaunch turtlebot3_gazebo turtlebot3_autorace.launch mission 모델을 추가로 소환한다. roslaunch turtlebot3_gazebo turtlebot3_autorace_mission.launch 실제면 camera calibration을 하겠지만 시뮬레이션이므로 했다고 가정한다. export GAZEBO_MODE=true expor.. 2022. 9. 29.
Topic 정리 사용하는 것들만 정리해둔다. iahrs IMU realsense t265 ublox gps /iahrs/imu/data frame_id : “iahrs” type : sensor_msgs/Imu orientation→ x y z w type : geometry_msgs/Quaternion angular velocity→ x y z type : geometry_msgs/Vector3 linear acceleration→ x y z type : geometry_msgs/Vector3 /iahrs/imu/mag frame_id : “iahrs” type : sensor_msgs/MagneticField → x y z /camera/imu roslaunch realsense2_camera rs_camera.la.. 2022. 9. 28.
Mapping with hector_slam Hector Slam 패키지를 이용하여 지역을 mapping하는 작업을 해보겠다. 패키지 설명은 아래에서 볼 수 있다. Wiki 이제 패키지를 설치하고 테스트를 돌려본다. 온라인에 많은 가이드들은 RPi Lidar나 YDLidar X4 모델을 기반으로 하나 본인은 앞서 사용한 YDLidar G4 모델을 이용한다. # YDLidar package 있는 ros workspace에서 git clone 패키지를 빌드하기 전 일부 설정을 수정해주어야 한다. mapping_default launch file 수정 cd ~/ydlidar_ws/src/hector_slam/hector_mapping/launch sudo nano mapping_default.launch아래 두 줄을 # line no 5,6 #line .. 2022. 9. 2.
RaspberryPi4 + G4 LiDAR Setting 사조기가 걷기 시작함에 따라 안정적인 보행과 추가 기능 구현의 영역을 분리하기로 하였다. 본 페이지는 LiDAR 센서를 이용하여 이동하는 영역을 mapping하기 위한 소프트웨어를 개발한다. ROS Noetic 기반으로 진행한다. RaspberryPi를 서버로 사용하며 파이에 ssh로 접속하여 화면은 MSI 랩탑 화면에 띄울 수 있도록 한다. Hardware RaspberryPi4 4Gb (server) : Ubuntu20.04 YDLidar model G4 MSI ubuntu laptop (client) : Ubuntu20.04 Setting 가장 먼저 ROS가 설치된 ubuntu 이미지를 입힌 sd카드가 라즈베리파이에 장착되었다는 전제 하에 진행한다. 만약 아니라면 아래 링크를 타고 들어가서 설치하고.. 2022. 8. 30.
반응형