분류 전체보기
-
https://github.com/charlesq34/pointnet.git GitHub - charlesq34/pointnet: PointNet: Deep Learning on Point Sets for 3D Classification and SegmentationPointNet: Deep Learning on Point Sets for 3D Classification and Segmentation - charlesq34/pointnetgithub.comPoint cloud를 input으로 받는 딥러닝 모델을 설계할 때는 항상 고민에 빠지게 되는 지점은 '길이가 모두 다른 point cloud를 어떻게 정규화를 해 줄 것인가?'인 것 같습니다. 길이를 고정해놓고 패딩을 줄 수도 있고, 정규화 네트워크를..
PointNet의 input point cloud processing에 대해서https://github.com/charlesq34/pointnet.git GitHub - charlesq34/pointnet: PointNet: Deep Learning on Point Sets for 3D Classification and SegmentationPointNet: Deep Learning on Point Sets for 3D Classification and Segmentation - charlesq34/pointnetgithub.comPoint cloud를 input으로 받는 딥러닝 모델을 설계할 때는 항상 고민에 빠지게 되는 지점은 '길이가 모두 다른 point cloud를 어떻게 정규화를 해 줄 것인가?'인 것 같습니다. 길이를 고정해놓고 패딩을 줄 수도 있고, 정규화 네트워크를..
2025.02.04 -
A Lifelong Learning Approach to Mobile Robot NavigationBo Liu, Xuesu Xiao, Peter Stonehttps://arxiv.org/abs/2007.14486 A Lifelong Learning Approach to Mobile Robot NavigationThis paper presents a self-improving lifelong learning framework for a mobile robot navigating in different environments. Classical static navigation methods require environment-specific in-situ system adjustment, e.g. from ..
A Lifelong Learning Approach to Mobile Robot NavigationA Lifelong Learning Approach to Mobile Robot NavigationBo Liu, Xuesu Xiao, Peter Stonehttps://arxiv.org/abs/2007.14486 A Lifelong Learning Approach to Mobile Robot NavigationThis paper presents a self-improving lifelong learning framework for a mobile robot navigating in different environments. Classical static navigation methods require environment-specific in-situ system adjustment, e.g. from ..
2025.02.02 -
Prediction은 Evaluation과 같다고 생각하시면 됩니다. 강화학습에서 Prediction은 Policy가 주어져 있을 때 각각의 state가 몇 점인지 평가를 해 주는 것입니다. Control은 결국에는 가장 좋은 것을 찾는 것입니다. 그리고 강화학습에서 가장 좋은 것은 즉, 최적의 Policy입니다. 그리고 최적의 Policy를 찾는 데에는 두 가지 방법이 있는데, 이 두 개는 사실상 같은 것이라고 할 수 있습니다. Value iteration은 Policy iteration의 특수한 경우입니다. 오늘은 1) 평가하는 것, 2) 가장 좋은 것을 찾는 것 이라는 두 가지를 다룰 텐데 이는 모두 MDP라는 특수한 환경에서 이루어집니다. 그리고 MDP를 풀 때는 여러가지 방식이 있지만 '모델을 ..
Dynamic ProgrammingPrediction은 Evaluation과 같다고 생각하시면 됩니다. 강화학습에서 Prediction은 Policy가 주어져 있을 때 각각의 state가 몇 점인지 평가를 해 주는 것입니다. Control은 결국에는 가장 좋은 것을 찾는 것입니다. 그리고 강화학습에서 가장 좋은 것은 즉, 최적의 Policy입니다. 그리고 최적의 Policy를 찾는 데에는 두 가지 방법이 있는데, 이 두 개는 사실상 같은 것이라고 할 수 있습니다. Value iteration은 Policy iteration의 특수한 경우입니다. 오늘은 1) 평가하는 것, 2) 가장 좋은 것을 찾는 것 이라는 두 가지를 다룰 텐데 이는 모두 MDP라는 특수한 환경에서 이루어집니다. 그리고 MDP를 풀 때는 여러가지 방식이 있지만 '모델을 ..
2025.01.31 -
로봇 개발에서의 편의성을 위해 이런 저런 GUI 개발을 시도해 보고 있는데, FoxGlove, Flutter를 이용한 웹앱 등 여러 가지 툴을 써 봤지만 가장 대중적인 Qt는 안 써봐서 이참에 시도해 보는 글1. Installation# 필요한 qt 패키지sudo apt-get updatesudo apt-get install qt5-default qtcreator# UI를 시각적으로 디자인할 수 있는 도구sudo apt-get install qttools5-dev-toolqtcreator 2. Make project# ROS 워크스페이스의 src 폴더에서catkin_create_pkg qt_ros_app roscpp std_msgscd qt_ros_app# filetreeqt_ros_app/ ├── i..
ROS with Qt : 1. 설치하고 간단한 프로젝트 템플릿 만들기로봇 개발에서의 편의성을 위해 이런 저런 GUI 개발을 시도해 보고 있는데, FoxGlove, Flutter를 이용한 웹앱 등 여러 가지 툴을 써 봤지만 가장 대중적인 Qt는 안 써봐서 이참에 시도해 보는 글1. Installation# 필요한 qt 패키지sudo apt-get updatesudo apt-get install qt5-default qtcreator# UI를 시각적으로 디자인할 수 있는 도구sudo apt-get install qttools5-dev-toolqtcreator 2. Make project# ROS 워크스페이스의 src 폴더에서catkin_create_pkg qt_ros_app roscpp std_msgscd qt_ros_app# filetreeqt_ros_app/ ├── i..
2025.01.31 -
강화학습에서 가장 중요한 것을 다시 짚어보면 다음과 같습니다. Environment: Agent를 제외한 모든 것State: 환경 중에서도 우리에게 필요한 정보들Rewards: Agent가 판단을 내렸을 때 이에 대한 보상값(스칼라)Return: 리워드의 기댓값(최종적으로 받을 수 있는 보상의 기댓값)AgentPolicydeterministic: 어떤 state에서는 어떤 action을 해라stochastic: 이런 state에서는 이런 action을 할 확률이 얼마 Value: 리턴의 기댓값이 상황이 얼마나 좋은지 나쁜지를 나타내는 값Model: action을 했을 때 받을 수 있는 리워드에 대한 정의내가 이 행동을 하면 어디로 갈까? (어떻게 될까?) Markov Property현재의 나의 stat..
Markov Decision Process (MDP) & Bellman Equation강화학습에서 가장 중요한 것을 다시 짚어보면 다음과 같습니다. Environment: Agent를 제외한 모든 것State: 환경 중에서도 우리에게 필요한 정보들Rewards: Agent가 판단을 내렸을 때 이에 대한 보상값(스칼라)Return: 리워드의 기댓값(최종적으로 받을 수 있는 보상의 기댓값)AgentPolicydeterministic: 어떤 state에서는 어떤 action을 해라stochastic: 이런 state에서는 이런 action을 할 확률이 얼마 Value: 리턴의 기댓값이 상황이 얼마나 좋은지 나쁜지를 나타내는 값Model: action을 했을 때 받을 수 있는 리워드에 대한 정의내가 이 행동을 하면 어디로 갈까? (어떻게 될까?) Markov Property현재의 나의 stat..
2025.01.30 -
셀프 강화학습 재수강 1. Introduction of Reinforcement Learning2. Basic concept of Reinforcement Learning3. Markov decision process4. Dynamic programming5. Monte Carlo6. Temporal difference7. MC Control8. TD Control SARSA9. TD Control Q-learning10. Function Approximation11. Policy gradient - REINFORCE12. Policy gradient - Actor Critic13. DQN14. DDQN15. TRPO16. PPO17. A3C18. TD319. SAC20. Model-based RL
강화학습 수업 Navigator셀프 강화학습 재수강 1. Introduction of Reinforcement Learning2. Basic concept of Reinforcement Learning3. Markov decision process4. Dynamic programming5. Monte Carlo6. Temporal difference7. MC Control8. TD Control SARSA9. TD Control Q-learning10. Function Approximation11. Policy gradient - REINFORCE12. Policy gradient - Actor Critic13. DQN14. DDQN15. TRPO16. PPO17. A3C18. TD319. SAC20. Model-based RL
2025.01.30 -
TOP-Nav : Legged Navigation Integrating Terrain, Obstacle and Proprioception EstimationJunli Ren1,*, Yikai Liu1,*, Yingru Dai1, Junfeng Long2, Guijin Wang1,†https://top-nav-legged.github.io/TOP-Nav-Legged-page/ SOCIAL MEDIA TITLE TAGSOCIAL MEDIA DESCRIPTION TAG TAGtop-nav-legged.github.io2024 CoRL세상 사람들이 내가 하고 싶은 거 다 먼저 해부렀네...https://www.youtube.com/watch?v=CzsE8kEf5lo&ab_channel=YikaiLiu Abstr..
TOP-Nav : Legged Navigation Integrating Terrain, Obstacle and Proprioception EstimationTOP-Nav : Legged Navigation Integrating Terrain, Obstacle and Proprioception EstimationJunli Ren1,*, Yikai Liu1,*, Yingru Dai1, Junfeng Long2, Guijin Wang1,†https://top-nav-legged.github.io/TOP-Nav-Legged-page/ SOCIAL MEDIA TITLE TAGSOCIAL MEDIA DESCRIPTION TAG TAGtop-nav-legged.github.io2024 CoRL세상 사람들이 내가 하고 싶은 거 다 먼저 해부렀네...https://www.youtube.com/watch?v=CzsE8kEf5lo&ab_channel=YikaiLiu Abstr..
2025.01.30 -
Android Debug Bridge 사용하여 모델 성능을 모니터링하고, 이 결과를 토대로 모델을 개선하기이때까지 진행한 과정(RKNN 모델 변환, 경량화, inference)에는 다만 약간의 문제가 있습니다. 변환은 리눅스 컴퓨터에서 진행하고, 파일을 오렌지 파이로 옮겨서 inference 만 수행하고 결과를 살펴본 것입니다. 매번 모델을 변환하고, 옮겨서 inference하기란 정말 귀찮은 일입니다. 또한, 귀찮은 것 보다 문제는 오렌지 파이 자체에는 rknn-toolkit2-lite만 사용할 수 있기 때문에, rknn-toolkit2에서 제공하는 모델 성능 평가 메소드를 사용할 수 없습니다. Performance Evaluation 기능을 사용하기 위해서는 ADB 모드로 오렌지 파이를 사용하는 것이..
(3) adb mode 사용하기Android Debug Bridge 사용하여 모델 성능을 모니터링하고, 이 결과를 토대로 모델을 개선하기이때까지 진행한 과정(RKNN 모델 변환, 경량화, inference)에는 다만 약간의 문제가 있습니다. 변환은 리눅스 컴퓨터에서 진행하고, 파일을 오렌지 파이로 옮겨서 inference 만 수행하고 결과를 살펴본 것입니다. 매번 모델을 변환하고, 옮겨서 inference하기란 정말 귀찮은 일입니다. 또한, 귀찮은 것 보다 문제는 오렌지 파이 자체에는 rknn-toolkit2-lite만 사용할 수 있기 때문에, rknn-toolkit2에서 제공하는 모델 성능 평가 메소드를 사용할 수 없습니다. Performance Evaluation 기능을 사용하기 위해서는 ADB 모드로 오렌지 파이를 사용하는 것이..
2025.01.27 -
pt, onnx 모델을 rknn 형태로 변환하기예를 들어 YOLO를 오렌지 파이에서 구동하고 싶고, 가지고 있는 것은 ONNX 파일이라고 하면 우리는 다음과 같은 단계로 ONNX 파일을 rknn 파일로 변환할 수 있습니다.rknn 객체 생성configuration 정의ONNX 모델 loadrknn 모델 buildrknn 모델 exportCode와 함께 따라하기rknn_model_zoo yolov5 example rknn_model_zoo/examples/yolov5/python/convert.py at main · airockchip/rknn_model_zooContribute to airockchip/rknn_model_zoo development by creating an account on GitH..
(2) 모델 변환하기pt, onnx 모델을 rknn 형태로 변환하기예를 들어 YOLO를 오렌지 파이에서 구동하고 싶고, 가지고 있는 것은 ONNX 파일이라고 하면 우리는 다음과 같은 단계로 ONNX 파일을 rknn 파일로 변환할 수 있습니다.rknn 객체 생성configuration 정의ONNX 모델 loadrknn 모델 buildrknn 모델 exportCode와 함께 따라하기rknn_model_zoo yolov5 example rknn_model_zoo/examples/yolov5/python/convert.py at main · airockchip/rknn_model_zooContribute to airockchip/rknn_model_zoo development by creating an account on GitH..
2025.01.27 -
RKNN SDK 설치하기rknn-toolkit2는 x86 계열 리눅스 컴퓨터에 설치하는 것을 권장합니다. (arm 계열 지원하지 않음)$ mkdir rknn_project $ git clone https://github.com/airockchip/rknn-toolkit2.git$ conda create -n rknn python=3.8$ conda activate rknn$ pip3 install -r rknn-toolkit2/packages/requirements_cp38.txt$ pip3 install rknn-toolkit2/packages/rknn_toolkit2-2.0.0b0+9bab5682-cp38-cp38-linux_x86_64.whl설치를 완료하면 $ python3>> from rknnli..
(1) rknn-toolkit2 설치하기RKNN SDK 설치하기rknn-toolkit2는 x86 계열 리눅스 컴퓨터에 설치하는 것을 권장합니다. (arm 계열 지원하지 않음)$ mkdir rknn_project $ git clone https://github.com/airockchip/rknn-toolkit2.git$ conda create -n rknn python=3.8$ conda activate rknn$ pip3 install -r rknn-toolkit2/packages/requirements_cp38.txt$ pip3 install rknn-toolkit2/packages/rknn_toolkit2-2.0.0b0+9bab5682-cp38-cp38-linux_x86_64.whl설치를 완료하면 $ python3>> from rknnli..
2025.01.27 -
단돈 15만원짜리 NPU가 탑재된 싱글보드 컴퓨터에서 딥러닝 모델을 inference 할 수 있도록로봇에서 가벼운 딥러닝 모델을 사용하기 위해서 Orange Pi NPU를 최적화하는 작업을 몇 달간 집중적으로 한 적이 있었는데, RKNN 관련 한글 문서는 거의 없어서 삽질을 많이 했습니다. 경험과 나름의 노하우를 나누고 싶어 정리해보았습니다.https://zito.gitbook.io/rknn_usermanual 1. RKNN이란? | RKNN Cookbook단돈 15만원짜리 NPU가 탑재된 싱글보드 컴퓨터에서 딥러닝 모델을 inference 할 수 있도록zito.gitbook.io이 Gitbook의 내용과 동일한데, Gitbook이 좀 더 보기 쉽게 정리되어 있습니다. (작성 중) 목차0. RKNN이란 ..
싱글보드 컴퓨터 위에서 돌아가는 딥러닝 모델, RKNN : RKNN이란 ?단돈 15만원짜리 NPU가 탑재된 싱글보드 컴퓨터에서 딥러닝 모델을 inference 할 수 있도록로봇에서 가벼운 딥러닝 모델을 사용하기 위해서 Orange Pi NPU를 최적화하는 작업을 몇 달간 집중적으로 한 적이 있었는데, RKNN 관련 한글 문서는 거의 없어서 삽질을 많이 했습니다. 경험과 나름의 노하우를 나누고 싶어 정리해보았습니다.https://zito.gitbook.io/rknn_usermanual 1. RKNN이란? | RKNN Cookbook단돈 15만원짜리 NPU가 탑재된 싱글보드 컴퓨터에서 딥러닝 모델을 inference 할 수 있도록zito.gitbook.io이 Gitbook의 내용과 동일한데, Gitbook이 좀 더 보기 쉽게 정리되어 있습니다. (작성 중) 목차0. RKNN이란 ..
2025.01.27 -
Neural Kinodynamic Planning : Learning for KinoDynamic Tree ExpansionTin Lai; Weiming Zhi; Tucker Hermans; Fabio Ramoshttps://ieeexplore.ieee.org/document/10801948 Neural Kinodynamic Planning: Learning for KinoDynamic Tree ExpansionWe integrate neural networks into kinodynamic motion planning and present the Learning for KinoDynamic Tree Expansion (L4KDE) method. Tree-based planning approaches, ..
Neural Kinodynamic Planning: Learning for KinoDynamic Tree ExpansionNeural Kinodynamic Planning : Learning for KinoDynamic Tree ExpansionTin Lai; Weiming Zhi; Tucker Hermans; Fabio Ramoshttps://ieeexplore.ieee.org/document/10801948 Neural Kinodynamic Planning: Learning for KinoDynamic Tree ExpansionWe integrate neural networks into kinodynamic motion planning and present the Learning for KinoDynamic Tree Expansion (L4KDE) method. Tree-based planning approaches, ..
2025.01.23