Latest Post
-
대형 프로젝트에서 Github 잘 활용하는 법
스윈님 레포에 보면 이런 식으로 브랜치가 많다. 브랜치들 네이밍 규칙이 뭐냐고 여쭤보니 {카테고리 : feature, refactor ...} / {제작자} / {애자일 할 때 그 스프린트} / {기능 세부}이런 식이라고 하셨다. 별 생각 없이 지은 거라고 하시긴 했지만 공동 작업을 많이 안 해봐서 merge request도 제대로 보내본 적 없는 나에게는 다소 신문물이었다. 그래서 url_navigation_pkg를 만들 때는 이를 적극 채택하여 나도 똑같이 따라 해 보기로 했다. Main에 깔끔하게 Merge Request / Pull Requeset 올리는 방법작업용 브랜치 생성작업 단위 잘게 나눠서 커밋 한 커밋 = 하나의 논리적 변경이 되도록 의식적으로 나누기버그 수정, 리팩토링, 신규 기능..
-
A. Terrain Map Loader
우선 시작해야 할 부분은 Terrain map (2.5D heightmap, 주로 포맷은 PCD) loader이다. 우리 랩에서는 주로 터레인 매핑 모듈의 결과물로 나온 2.5D static map에서 global path planning을 진행한다. 이 PCD 파일의 필드에는 height 뿐 아니라, 각종 collision risk, inclination risk,,... 등등과 각 과제에서 필요로 하는 요구사항에 맞는 값들이 들어가 있고 이 필드값은 계속 바뀔 수 있다. 그래서 터레인 맵 loader의 소프트웨어 요구사항은 다음과 같다. 메모리 효율성 : 필요한 필드만 선택적으로 로드동적 필드 지원 : PCD 파일의 모든 필드 자동 인식확장성 : 새로운 필드 타입 쉽게 추가 가능┌───────────..
-
url_navigation_pkg (3) : Naming Convention
Naming Convention파일명 : snake_casepose.pyglobal_planner.py클래스명 : PascalCaseclass GlobalPlanner함수/메소드명 : snake_casedef plan_path()변수명 : snake_casecurrent_pose상수명 : UPPER_SNAKE_CASEMAX_VELOCITY * 코드 포맷팅 라이브러리 활용할 것
-
url_navigation_pkg (2) : Code structure
Design Philosophy의존성 규칙 준수 : 도메인이 ROS에 의존하지 않음알고리즘 순수성 : 각 알고리즘은 상태를 갖지 않고 순수 함수처럼 동작state machine 분리: 상태 관리는 application layer에서 담당조립 : 런타임에 Config로 컴포넌트 조합Software Engineering도메인 (Domain)└─ Navigation (로봇 이동 문제 영역) ├─ Entity (핵심 개념들) │ ├─ Pose (위치) │ ├─ Path (경로) │ ├─ Velocity (속도) │ └─ Obstacle (장애물) │ └─ 비즈니스 로직 (Business Logic) ├─ 목표 도달 판단 ├─ 충돌 검사 ├─ 경로 유효성..
-
url_navigation_pkg (1) : 클린 코드, 소프트웨어 요구사항
URL에 들어오고 나서 좋았던 점 중 하나는 Aswin님의 DreamWaQ Universe 소스코드를 보고 공부할 기회가 있었다는 것이다. 그 코드는 내가 이제껏 봤던 어떤 코드보다 예뻤다. 6~7월은 내내 그 코드를 뜯어보고 사용하면서 보냈다. 그전에는 딱히 클린 코드에 대한 경이로움이나 필요성을 못 느끼면서 살았고, 그 때문에 내가 만든 코드도 정말 되는대로 작성한 것이 대부분이었다. 하지만 DreamWaQ 코드를 보고 난 후에, 잘 조직된 패키지는 참 많은 사람들의 삶의 질을 향상시킨다는 것을 체감했다. 그래서 내가 향후에 만들 패키지도 이와 같이 손쉽게 유지보수되는 영리한 구조를 지녔으면 좋겠다는 생각을 처음으로 했다.클린 코드는 기술 부채를 최소화하고 가독성과 유지보수성 그리고 타인의 이해도를 ..
-
Text-to-Image Generation with Deep Image Prior
로보틱스, 특히 필드 로보틱스를 위한 AI에서 중요한 키워드를 꼽으라면 단연 "리소스 효율적"이라고 생각한다. LLM 시대가 도래하면서 로봇을 위한 AI 연구는 크게 양극단으로 분리된 것 같다. 하나는 "뭐든지 라지모델에게 물어봐~"이고 하나는 "더 가볍고 더 효율적으로!"이다. "뭐든지 라지모델에게 물어봐~" 쪽이 좀 더 요새 메인 기조이긴 하지만, 나는 에 관심이 있는 나는 후자를 열심히 보고 있다. 그래서 이번 학기에 고른 것은 라는 전산과 수업이었다. 라고 하면 GPU 메모리 뿐 아니라, AI 학습에 필요한 모든 단계에서의 리소스를 의미하며 이 수업에서는 학습 데이터 취득이나 학습 과정 자체 등 다양한 관점에서의 리소스 효율적 기법을 다룬다. 그 중에 하나가 Deep Image Prior (htt..
-
Splat-Nav: Safe Real-Time Robot Navigation in Gaussian Splatting Maps
Splat-Nav: Safe Real-Time Robot Navigation in Gaussian Splatting MapsTimothy Chen and Ola Shorinwa and Joseph Bruno and Aiden Swann and Javier Yu and Weijia Zeng and Keiko Nagami and Philip Dames and Mac Schwagerhttps://chengine.github.io/splatnav/2025 T-ROAbstract우리는 Gaussian Splatting 장면에서 실시간 로봇 내비게이션을 수행하는 파이프라인인 Splat-Nav를 제안한다. Splat-Nav는 두 가지 구성 요소로 이루어진다:Splat-Plan — 안전성을 보장하는 경로 계획 모듈 S..
-
SplatNav 코드 뜯어보기 : SFC-1과 SFC-2의 차이점
SplatNav에서는 SFC-1, SFC-2라는 두 가지 옵션을 제공한다. 둘의 차이점을 비교하면 다음과 같다. SFC-1SFC-2코드 분기점 (1) SFC/corridor_utils.pyPointCloudCollisionSet을 기본 옵션으로 생성PointCloudCollisionSet(sample_surface=20)으로 생성코드 분기점 (2) polytopes/collision_set.pypoint_cloud = self.means (가우시안 중심만 사용)충돌 집합 계산은 “점”들에 대해 Ax fibonacci_ellipsoid(...)로 각 가우시안의 “표면”을 샘플링ellipsoid_samples = fibonacci_ellipsoid(self.means, self.rots, self.scal..
-
SplatNav 코드 돌려보기 (2) 내 데이터로 돌려보기
https://zzziito.tistory.com/174 SplatNav 코드 돌려보기 (1) 제공해준 데이터로 돌려보기1. 환경 설정A. NerfStudio 설치SplatNav는 NerfStudio를 기반으로 작성되었다. https://github.com/nerfstudio-project/nerfstudio/tree/main GitHub - nerfstudio-project/nerfstudio: A collaboration friendly studio for NeRFsA collaboration friendlyzzziito.tistory.com여기서 제공해 준 데이터로 돌려봤으니까 이제 내가 딴 데이터로 돌려볼 차례이다. 친절하게도 이렇게 설명해주고 있다. 대략 이런 내용. 다음과 같은 순서로 수행한다..
-
SplatNav : 코드 아키텍쳐 분석
Filetreesplatnav/├─ .git/├─ .gitignore├─ LICENSE├─ README.md├─ SFC/│ ├─ __pycache__/│ ├─ astar_utils.py│ ├─ corridor_utils.py│ ├─ helper_utils.py│ └─ viz_utils.py├─ SplatNav Data/ │ ├─ old_union_sfc-1.json│ └─ old_union_sfc-2.json├─ assets/ ├─ blender/│ ├─ viz_dataset.py│ ├─ viz_statistical_traj.py│ └─ viz_utils.py├─ data/│ ├─ exp_room/│ ├─ flight/│ └─ old_union2/├─ ellipsoids/│ ├..
-
SplatNav 코드 돌려보기 (1) 제공해준 데이터로 돌려보기
1. 환경 설정A. NerfStudio 설치SplatNav는 NerfStudio를 기반으로 작성되었다. https://github.com/nerfstudio-project/nerfstudio/tree/main GitHub - nerfstudio-project/nerfstudio: A collaboration friendly studio for NeRFsA collaboration friendly studio for NeRFs. Contribute to nerfstudio-project/nerfstudio development by creating an account on GitHub.github.comconda create -n nerfstudio python=3.10conda activate nerfs..
-
사족보행로봇 for 농사 : 옥천군 농장 방문 후기 (1)
나는 연구실에서 KEIT 사족보행이라는 과제에 참여하고 있는데, 이 과제는 올해부터 알고리즘 평가를 충북 옥천군에 있는 한 복숭아 농가에서 진행하게 되어 있다. 작년 겨울부터 여기 방문할 기회가 생겨서 부지를 탐색하곤 했다. 예전부터 농사 로봇에 관심이 있기는 했지만 농사에 대해서는 1도 아는 것이 없어서 개인적으로는 이 출장이 참 흥미로웠다. 실제 농가에서는 어떤 로봇을 요구하시는지도 어깨 너머로 조금씩 배울 수 있었다. 우선 복숭아 농가는 여름철에 무척 바쁘셔서 두 가지 요구를 하셨다.수확이 끝난 8월 이후에 올 것나무의 뿌리 부근을 밟지 말 것우리 연구실의 플래너는 기본적으로 가장 평평한 곳을 디디도록 하고 있기 때문에 나무 뿌리를 밟는 경우는 잘 없어서 이 부분은 크게 신경 쓸 것은 없었다. 다만..
-
Ubuntu Terminator 레이아웃 저장하기
이런 식으로 저장해서 아이콘을 누르면 정해진 레이아웃대로 터미네이터가 뜨도록 하는 방법불러오는 것도 아이콘에서 불러도록!알고리즘 백 개 켤 때 터미네이터 분할하는 수고를 줄일 수 있다. 1. 맘에 드는 레이아웃을 정하고 설정 -> 레이아웃 -> 레이아웃 저장 (예시 이름 : ziwon)2. ~/.local/share/applications에 ziwon.desktop 생성 후 편집[Desktop Entry]Type=ApplicationName=Ziwon Test TerminatorExec=/home/ziwon/scripts/ziwon_terminator.shIcon=utilities-terminalTerminal=falseCategories=Utility;3. 설정한 경로에서 ziwon_terminator..
-
TorchCFM 사용법
1. Flow Matcher 클래스들ConditionalFlowMatcherfrom torchcfm import ConditionalFLowMatcher# initfm = ConditionalFlowMatcher(sigma=0.0)t, xt, ut = fm.sample_location_and_conditional_flow(x0=None, x1=data) ExactOptimalTransportConditionalFlowMatcherfrom torchcfm import ExactOptimalTransportConditionalFlowMatcher# 더 정교하고 계산 비용 높음fm_ot = ExactOptimalTransportConditionalFlowMatcher(sigma=0.0t, xt, ut = fm..
-
Diversity is All You Need : Learning Skills without a Reward Function
Diversity is All You Need : Learning Skills without a Reward FunctionBenjamin Eysenbach and Abhishek Gupta and Julian Ibarz and Sergey Levinehttps://arxiv.org/abs/1802.06070핵심 : DIAYN은 다양한 Skill을 비지도로 학습하기 위한 파이프라인이며 학습된 Skill들 중 어떤 것을 선택하고 조합할지는 그 이후의 추가 학습 (Hierarchical RL, Fine-tuning, Imitation Learning)에서 결정된다. Abstract지능적인 생명체는 감독 없이도 환경을 탐색하고 유용한 기술을 스스로 학습할 수 있다. 본 논문에서는 보상 함수 없이 유용한 기술(..
-
2025 ICRA QRC 참여 후기
전세계 로봇 학회 중 가장 큰 학회 중 하나인 International Conference on Robotics and Automation (이하 ICRA)에서는 매년 사족보행로봇 챌린지(이하 QRC)라는 대회를 개최하곤 한다. 로보컵이나 DARPA처럼, 재난 상황에서도 잘 임무를 수행하는 로봇을 위한 기술을 개발하기 위해서 매우 도전적인 지형을 다니면서 미션을 수행하는 대회이다. 내가 속해있는 Urban Robotics Lab (이하 URL)에서는 매년 이 대회를 나가는데, 2023년 첫 대회에서는 큰 점수차로 우승을 하기도 해서(뉴스) ICRA QRC는 랩에서 큰 연례 행사이자 미션으로 여겨지곤 한다. 이 대회를 참가하기 위해서 개발한 모듈들이 연구실의 귀중한 원천기술이 되어서 다양한 과제 및 후속 ..
-
Hierarchical Tri-manual Planning for Vision-assisted Fruit Harvestingwith Quadrupedal Robots
Hierarchical Tri-manual Planning for Vision-assisted Fruit Harvestingwith Quadrupedal RobotsZhichao Liu and Jingzong Zhou and Konstantinos Karydis2025 ICRAhttps://arxiv.org/abs/2409.17116 Hierarchical Tri-manual Planning for Vision-assisted Fruit Harvesting with Quadrupedal RobotsThis paper addresses the challenge of developing a multi-arm quadrupedal robot capable of efficiently harvesting frui..
-
농사 로봇 리서치를 시작하며
석사 입학 지원서를 냈던 게 엊그제같은데 벌써 1학기가 끝났다. 1학기에 가장 열심히 한 것은 단연 ICRA Quadrupedal Robot Challenge(QRC)로 많은 것을 배웠고 개인적으로도 무척 특별한 시간이었다. 짧지만 압축적인 몇 달을 보내면서 드는 생각은 "연구자에게는 개인적인 로드맵이 필요하다"는 것이었다. 우리 랩에서는 2년차 이상의 석사과정 혹은 박사과정 선배님들이 연초에 을 발표하도록 하는데 그 발표에서 요구하는 것은 실로 한 연구자적 목표를 제시하는 것이다. 예를 들어 멀티 로봇 SLAM을 연구하시는 분이라면 "코엑스를 100대의 로봇으로 5분 안에 맵을 다 따는" 정도의 익스트림을 제시해야 한다. 나는 이곳에서 매우 막내로 하는 일도 별로 없기는 하지만 이런 나라도 석사과정의 ..
-
ROS 실전 개발 시 까먹지 말아야 할 것들
멀티센서를 사용하고 실시간성이 크리티컬하게 요구되는 상황에서콜백함수에 아무거나 넣지 말 것콜백함수가 전체 시스템을 느리게 동작하게 함콜백함수는 큐에 데이터를 넣기만 하고 timestamp로 토픽 싱크 맞추기특히 Odom을 같이 받고 있는 상황에서는, 더 높은 정확도를 위해서는 interpolation을 해줘야 할 수도 있음ROS 통신에서 시간이나 싱크 관련한 부분은 좀 더 면밀히 살펴보기 특히 메시지필터 : 이 친구 믿으면 안 됨멀티스레딩 잘 하기병목 생기는 구간 체크여러 Odom 데이터가 나오는 상황에서 내가 무슨 프레임 기준 Odom을 받고 있는지 꼭 항상 체크하기/{}_odom, /{}_odom_base, /{}_odom_grav ... 토픽 publisher/subscriber 시스템 도는 중간에..
-
Realsense 기기괴괴
그냥 Launch 파일로 켰을 때:특급 Launch 파일로 켰을 때:json{ "device": { "fw version": "05.13.00.50", "name": "Intel RealSense D435I", "product line": "D400" }, "parameters": { "aux-param-autoexposure-setpoint": "1536", "aux-param-colorcorrection1": "0.298828", "aux-param-colorcorrection10": "-0", "aux-param-colorcorrection11": "-0", "aux-param-col..
Deep Learning
-
Text-to-Image Generation with Deep Image Prior
로보틱스, 특히 필드 로보틱스를 위한 AI에서 중요한 키워드를 꼽으라면 단연 "리소스 효율적"이라고 생각한다. LLM 시대가 도래하면서 로봇을 위한 AI 연구는 크게 양극단으로 분리된 것 같다. 하나는 "뭐든지 라지모델에게 물어봐~"이고 하나는 "더 가볍고 더 효율적으로!"이다. "뭐든지 라지모델에게 물어봐~" 쪽이 좀 더 요새 메인 기조이긴 하지만, 나는 에 관심이 있는 나는 후자를 열심히 보고 있다. 그래서 이번 학기에 고른 것은 라는 전산과 수업이었다. 라고 하면 GPU 메모리 뿐 아니라, AI 학습에 필요한 모든 단계에서의 리소스를 의미하며 이 수업에서는 학습 데이터 취득이나 학습 과정 자체 등 다양한 관점에서의 리소스 효율적 기법을 다룬다. 그 중에 하나가 Deep Image Prior (htt..
-
Flow Matching : Diffusion과의 차이점을 중심으로
Flow matching (https://zzziito.tistory.com/153)은 디퓨젼과 함께 최근 확률적 러닝 모델 기반 생성 분야에서 주목받고 있는 방법이다. Flow matching은 확률 흐름 상미분 방정식 (Ordinary Differential Equation, ODE)을 기반으로 하며, 이 방법은 복잡한 데이터 분포를 단순한 분포(Ex. 가우시안)로 연속적으로 변형하는 벡터 필드를 학습한다. 데이터 분포와 단순한 분포 사이의 확률 흐름을 모델링하여 이 흐름을 따라 이동하는 궤적을 학습하고, 연속 정규화 흐름(Continuous Normalizing Flow, CNF)의 개념을 확장하여 적용했다. 디퓨젼 모델이 노이즈가 없는 이미지에 점진적으로 가우시안 노이즈를 추가하여 데이터를 손상시..
-
내가 만든 데이터셋 잘 사용하기 : Diffusion Policy의 데이터 전처리 방법들
Imitation Learning(모방 학습)을 사용할 때는 내가 만든 데이터셋을 사용해야 하는 경우가 많이 있다. 특히 로봇 imitation learning의 경우에는 문제 상황 모델링부터 데이터셋 구조, 손실 함수 및 평가 메트릭까지 다 정해야 하는 경우가 종종 있다. 이상한 연구를 할 수록 더 그런 것 같다.만약 내가 시맨틱 세그멘테이션 성능을 높이는 연구를 한다면 잘 마련된 경기장에서 빨리 뛰기 위해 체력을 기르고 트랙을 꼼꼼히 살피는 방향으로 진행하는 것이 보통이다. (모두가 사용하는 데이터셋에서 범용적인 평가 메트릭을 사용해 좋은 성능 내기 - 개인적으로는 이게 훨씬 어려워 보여욧... )반면 응용단에서 뭔가 새로운 시도를 하는 로보틱스 연구를 한다면 미개척지에 삽을 들고 냅다 뛰어드는 것..
-
Domain Generalization : Data Manipulation Methods
Data Augmentation 도메인이 다르다고 하면 과연 이 세 장의 이미지에서 "무엇이" 다른 걸까요 ? 이미지에는 Semantic (Content) 정보와 Apperance (Style) 정보가 있습니다. 따라서 컨텐츠만 잘 하면 새로운 스타일의 이미지가 왔을 때 잘 분류할 수 있지 않을까요 ? 그리고, 1번과 3번 이미지는 비슷한 스타일이기는 하지만 자세라던지, 귀의 방향 등이 다릅니다. 그러면 1번 컨텐츠에 3번 스타일을 적용한 새로운 이미지를 생성한다면 학습에 도움이 되지 않을까요 ? 이것이 Domain Generalization 에 사용되는 Data Augmentation 의 방법입니다. 그러면 Contents 를 표현하는 것과 Style 을 표현하는 것은 무엇이 다를까요 ? ADaIN A..
-
Domain Generalization
Domain Generalization 이 무엇일까 ? 위에 이 두 개는 같은 도메인일까요 아닐까요 ? 기준을 어떻게 두느냐에 따라서 도메인의 정의는 달라집니다. 수학적 정의 input x 의 marginal distribution 을 domain 이라고 정의 하는 경우가 많습니다. 혹은 input 과 output 의 joint distribution 으로 정의하는 경우도 있습니다. 그래서 우리는 각각의 Domain 에서 나온 Feature 들이 이와 같이 Label Space 에서 Clustering 되기를 바라는 것 입니다. Single-Source vs. Multi-Source Domain Generalization 그러면 학습할 때 도메인은 몇 개를 사용하면 될까요 ? 학습할 때 하나의 도메인만 ..
-
Backdoor Attack on Self-Supervised Learning
Backdoor Attack은 Adversarial Attack 의 한 종류입니다. 위와 같은 Attack 을 Evasion Attack 이라고 합니다. 우리가 실제로 모델을 학습시킬 때 사용하는 게 아니라, 학습된 모델을 테스트할 때 테스트 이미지를 조작해서 잘못된 결과를 내도록 하는 것입니다. Backdoor Attack Backdoor Attack 은 "트로이 목마" 처럼 무언가를 심어 놓는 것입니다. 이미 학습을 할 때부터 심어 놓게 됩니다. 이때 Poison instance 는 우리가 학습을 시키는 데이터셋에 오염된 instance 를 추가시키거나, 기존에 있던 데이터셋을 조금 변형시키는 것입니다. 예를 들어 데이터셋이 10,000 장이면 100 장 정도에 perturbation 이나 의도를 가..
-
MAE : Masked AutoEncoder🤿
K, He, et al. "Masked Autoencoders Are Scalable Vision Learners", ICCV, 2022 Very simple method, but highly effective BERT-like algorithm, but with crucial design changes for vision Intriguing properties - better scalability and more from analysis MAE 같은 형식의 문제가 여기서 처음 나온 건 아닙니다. 우리가 Pretext Task 중에서, Context Prediction 이라는 impainting 태스크가 있었습니다. 또한 Transformer 에서 언급했던 Pixel GPT 도 있습니다. 그런데 2022..
-
Contrastive Learning : BYOL (Bootstrap Your Own Latent)
이때까지 Contrastive Learning 에서는 Negative Sample 이 중요했습니다. 하지만 BYOL 은 이와 조금 다릅니다. Key Ingredients Image Transformations : Comparing embeddings Target Networks : Similar to MoCo Additional Predictor on top of online network Interest of the method Simple training procedure No negative examples Work at the embedding level : no pseudo-labels BYOL 은 Negative Sample 을 사용하지 않고, Positive Sample 들 간에 얼마나 가까..
-
Contrastive Learning : Moco (Momentum Contrast)
Contrastive Learning 을 하는 이유는 Postive Pair 는 가깝게, Negative Pair 는 멀게 하기 위함입니다. 여기서 가장 흔히 사용되는 Loss 는 InfoNCE 라는 loss 입니다. 다만 이후 Clustering 을 할 때 있어서 문제가 발생합니다. InfoNCE 로 인코더를 학습하고 나면 x와 x' 의 위치는 Embedding space 상에서 가까워 지게 됩니다. 그런데 과연 가까워 지는 쪽으로 업데이트를 하는 게 옳을까요 ? 가까워지는 방향에 Negative Pair 들이 있다면 어떻게 될까요 ? Negative Pair 들이 없는 방향으로 옮겨가야 하지 않을까요 ? 즉, Negative 랑은 멀게, Positive 랑은 가깝게 하려면 momentum 을 고려해야..
-
Self - Supervised Learning : Contrastive Learning
Contrastive Learning 이 이전의 Pretext Task 와 다른 점은 다음과 같습니다. Contrastive Learning 은 특정한 일을 시키면서 Representation 을 학습시키는 게 아니라, invariance 와 contrast 를 사용합니다. 비슷하게 생기거나, semantic 하게 유사한 애들을 positive pair 라고 하고, 그렇지 않은 애들을 negative pair 라고 하면, invariance 와 contrast 는 다음과 같이 정의됩니다. Invariance : Representations of related samples should be similarContrast : Representations of unrelated samples should ..
-
Self - Supervised Learning : Pretext Task
Self-supervised learning 의 필요성과 기능 Supervised Learning 이 발전함에 따라서, 필연적으로 Self-Supervised Learning 이 각광을 받게 되었습니다. DNN 은 기적같은 성과를 내었지만 이를 위해서는 상당히 많은 양의 Labeled 데이터가 필요했습니다. Annotation 은 상당히 비용이 많이 들고, 돈이 있다고 해서 모두 할 수 있는 것도 아닙니다. 예를 들어 Medical Data 같은 경우 전문성이 필요합니다. Self-Supervised Learning 을 처음 들었을 때 , "스스로 Annotation 을 해 주는 건가 ?" 라는 생각이 들 수 있습니다. 그렇다기보다는, label 자체를 "누군가가 애써서 만들지 않아도 된다" 라고 생각..
-
다양한 Knowledge Distillation 방법들 : 1. Response - based KD
무엇을 배우는가 ? 의 관점에서 KD 는 크게 3가지로 분류할 수 있습니다. Response-Based : 결과값을 따라가는 것 Feature-Based : 중간에 나오는 값들 (과정) 도 다 따라가는 것 Relation-Based : 단편적인 값들의 비교가 아닌, 중간 중간의 값들이 어떤 프로세스에 의해 나오는지 (Flow) 흐름도 따라가는 것 What to match ? Output Logits Output logit 을 따라가는 것은 직관적이고 이해하기 쉽습니다. 하지만 이는 Supervised Learning 에서밖에 사용할 수 없습니다. 답이 있어야 하니까요. Intermediate Features 중간 feature 값으로부터 학습을 하는 것입니다. 하지만 이런 Feature 를 matchin..