비선형 제어의 핵심 난제: CBF, 강인제어, 그리고 신경망의 역할
L1 제어, Control Barrier Function, 강인제어의 관계를 정리하고, 신경망이 비선형 시스템 제어에서 어디까지 가능한지 학문적으로 고찰한다
배경: 제어공학이 풀고 싶은 문제
제어공학의 본질은 단순하다. 시스템을 원하는 대로 움직이게 만드는 것. 방 온도를 25도로 유지하는 것도, 로봇 팔을 정확한 위치로 보내는 것도 결국 같은 문제다. 현재 상태를 측정하고, 목표와의 차이를 계산하고, 그에 맞는 입력을 가한다.
문제는 현실이 이론처럼 깔끔하지 않다는 것이다.
노름(Norm): 신호의 크기를 재는 방법
제어에서 시스템의 성능을 평가하려면 신호의 “크기”를 측정해야 한다. 노름(Norm)은 이를 위한 수학적 도구다.
| 노름 | 정의 | 제어에서의 의미 |
|---|---|---|
| L1 | 절대값의 총합 | 신호의 누적 영향 |
| L2 | 제곱합의 제곱근 | 에너지 |
| L∞ | 절대값의 최대값 | 피크값 — 순간 최대 부하 |
제어 시스템 설계에서 L∞ norm은 특히 중요하다. “모터 토크가 최대 허용치를 절대 초과하지 않는다”는 종류의 보장이 L∞ 제약이다. 하드웨어의 물리적 한계와 직결되기 때문이다.
강인제어(Robust Control): 불확실성을 전제한 설계
현실의 시스템에는 불확실성이 항상 존재한다:
- 로봇 팔의 정확한 질량과 관성 모멘트
- 관절 마찰 계수의 변화
- 외부 교란 (진동, 충격, 온도 변화)
강인제어는 이러한 불확실성이 존재해도 시스템이 요구 사양을 만족하도록 설계하는 분야다. 모든 것을 정확히 알 때 최적으로 설계하는 것이 아니라, 모르는 것이 있어도 최소 보장을 제공하는 것이 목표다.
여기서 “L1 제어”라는 이름이 등장한다. 다만 주의할 점은, L1이라는 이름이 여러 맥락에서 쓰인다는 것이다:
- L1 적응제어 (L1 Adaptive Control): 불확실성에 대해 적응하며 강인성을 확보하는 제어기
- L1 norm 최적화: 머신러닝에서의 Lasso 정규화, 혹은 일반 최적화에서의 L1 페널티
- L1 성능 보장: 시스템의 L1 gain이 특정 범위를 넘지 않도록 보장
모두 같은 L1 norm에서 파생되었지만 적용 맥락이 다르다.
선형에서 비선형으로: 난이도의 도약
선형 시스템
입력을 2배로 주면 출력도 2배가 되는 시스템. 중첩의 원리(superposition)가 성립하며, 해석 도구가 풍부하다. 주파수 응답, 전달함수, 상태공간 모델 등 체계적인 방법론이 확립되어 있다.
선형 시스템에서 L∞ norm으로 피크값을 제한하는 문제는, L1 norm 관점으로 재구성할 수 있다는 것이 알려져 있다. 이것이 “L1 제어”라는 명칭의 출발점이다.
비선형 시스템
영역에 따라 시스템의 행동이 질적으로 달라진다. 단진자만 봐도, 소진폭에서는 거의 선형이지만 대진폭에서는 비선형 효과가 지배적이며, 에너지가 충분하면 회전 운동으로 전환된다. 같은 시스템이 작동점에 따라 완전히 다른 동역학을 보인다.
비선형 시스템에서 L1 성능을 보장하려면 tangent cone 문제를 풀어야 한다.
Tangent Cone과 CBF
Tangent Cone (접선 원뿔)
어떤 제약 집합 $C$의 경계점 $x$에서, 시스템이 집합 내부에 머무르기 위해 허용되는 방향의 집합을 tangent cone이라 한다.
직관적으로: 안전 영역의 경계에 서 있을 때, “어느 쪽으로 움직여야 밖으로 나가지 않는가?”에 대한 답이다. 선형 시스템에서는 이 계산이 비교적 단순하지만, 비선형 시스템에서는 상태에 따라 허용 방향이 복잡하게 변하므로 직접 계산이 극히 어렵다.
Control Barrier Function (CBF)
CBF는 이 tangent cone 문제를 부등식 제약으로 변환하는 도구다.
안전 집합을 함수 $h(x)$로 정의한다:
- $h(x) > 0$: 안전 영역
- $h(x) = 0$: 안전 경계
- $h(x) < 0$: 위험 영역
CBF 조건은 다음을 요구한다:
$$\dot{h}(x) + \alpha(h(x)) \geq 0$$
여기서 $\alpha$는 class-$\mathcal{K}$ 함수다. 이 부등식이 의미하는 바는: $h(x)$가 0에 가까워질수록 “안쪽으로 밀어내는 힘”이 강해져서, 시스템이 안전 경계를 넘을 수 없다는 것이다.
핵심적인 기여는, 비선형 시스템에서 기하학적으로 풀어야 했던 tangent cone 문제를 최적화 문제의 부등식 제약 하나로 변환했다는 점이다. 이는 QP(Quadratic Programming) 등 기존 최적화 기법으로 실시간 풀이가 가능해짐을 의미한다.
CBF의 한계: “충분히 강인한 것 같다”의 문제
CBF는 이론적으로 우아하지만, 본질적인 한계가 있다.
불확실성의 집합화: CBF 설계 시 불확실성을 특정 범위의 집합으로 가정한다. “모델 오차가 이 범위 안에 있을 것이다”라는 가정 하에 안전을 보장하는 것이지, 가정이 틀리면 보장이 깨진다. 엄밀한 강인 제어라기보다는 “이 정도면 강인하겠다”는 수준의 타협이다.
설계의 비자명성: 실제 시스템에서 안전 함수 $h(x)$를 어떻게 정의할지, regulated output을 무엇으로 잡을지는 설계자의 판단에 의존한다. 이 선택에 따라 성능이 크게 달라지며, 체계적인 방법론이 부족하다.
확장성: 다중 제약이 존재할 때 제약 간 충돌(conflict)이 발생할 수 있고, 고차 시스템(high relative degree)에서는 기본 CBF가 직접 적용되지 않아 High-Order CBF (HOCBF) 등의 확장이 필요하다.
이러한 한계를 극복하기 위해 다양한 연구가 진행되고 있으며, 그중 하나가 신경망의 활용이다.
신경망은 비선형 시스템을 “대체”할 수 있는가
이론적 근거: Universal Approximation Theorem
범용 근사 정리에 의하면, 충분히 큰 신경망은 임의의 연속 함수를 원하는 정밀도로 근사할 수 있다. 비선형 시스템의 동역학 $x’ = f(x, u)$도 함수이므로, 이론적으로 신경망 근사가 가능하다.
그러나 “근사 가능”과 “대체 가능”은 본질적으로 다른 주장이다.
근본적 한계
외삽(Extrapolation)의 부재: 신경망은 학습 데이터 분포 내에서만 신뢰할 수 있다. 비선형 시스템은 상태 공간이 넓고 영역별 행동이 질적으로 다르므로, 학습되지 않은 영역에서의 예측은 신뢰할 수 없다.
안전성 보장의 불가: 수학적 모델은 “이 조건 하에서 상태가 절대 이 범위를 벗어나지 않는다”는 형식적 증명을 허용한다. 신경망 기반 모델은 통계적 추정만 가능하며, 최악의 경우에 대한 보장이 원리적으로 불가능하다.
미분의 물리적 의미 상실: 제어 설계에서는 모델의 야코비안(Jacobian)이나 리아푸노프 함수(Lyapunov function)의 미분이 물리적 의미를 가져야 한다. 신경망의 기울기는 수치적으로 계산 가능하지만, 물리적 해석이 불가능하며 안정성 분석에 직접 사용하기 어렵다.
국소 근사와 전역 근사의 간극: 비선형 시스템의 핵심 특성은 영역별 질적 차이다. 신경망이 모든 영역을 동시에 높은 정밀도로 근사하려면 모델 크기와 학습 데이터가 기하급수적으로 증가한다. 이론적 “가능”과 실제 “가능” 사이의 간극이 매우 크다.
실제 활용: 혼합(Hybrid) 접근
현실적으로 가장 널리 쓰이는 접근은 물리 기반 모델 + 신경망 보정이다:
$$x’ = f_{\text{known}}(x, u) + \text{NN}_\theta(x, u)$$
알려진 물리 법칙이 동역학의 대부분을 설명하고, 신경망은 마찰, 유연성, 미지의 외란 등 **모델링이 어려운 잔차(residual)**만 학습한다. 이 방식의 장점은:
- 신경망이 틀려도 물리 모델이 기본 동작을 보장
- 신경망의 학습 부담이 크게 줄어듦
- 물리적 구조를 보존하므로 안정성 분석이 부분적으로 가능
강화학습: 모델 없이 제어를 학습하다
강화학습(RL)은 위의 접근들과 근본적으로 다르다. 시스템 모델도, 안전 함수도, 제어 법칙도 사전에 설계하지 않는다. 시행착오를 통해 제어 정책(policy) 자체를 데이터로부터 학습한다.
보상 함수 설계를 통해 목표를 정의하고, 수백만 번의 시뮬레이션을 거쳐 최적의 행동을 찾아낸다. 성공했을 때의 성능은 기존 방법을 크게 상회하는 경우가 많다.
그러나 제어공학의 관점에서 근본적인 문제가 있다:
- 이론적 보장 부재: 왜 잘 되는지 수학적으로 설명할 수 없음
- Sim-to-Real Gap: 시뮬레이션에서 학습한 정책이 현실에서 동일하게 작동하지 않을 수 있음
- 재현성 문제: 동일한 설정에서도 학습 결과가 달라질 수 있음
제어공학은 전통적으로 **“왜 안전한지 수학적으로 증명”**하는 학문이다. 증명 없이 성능만 좋은 방법은 — 특히 사람과 상호작용하는 로봇이나 자율주행 같은 안전 필수(safety-critical) 시스템에서 — 받아들이기 어렵다.
이것이 제어 연구 커뮤니티에서 신경망 기반 접근을 반쯤 농담으로 **“마공(邪功)“**이라 부르는 이유다. 쓰면 강하지만, 정도(正道)가 아니라는 뉘앙스.
앞으로의 방향
현재 활발히 연구되는 방향들:
- Neural CBF: CBF 함수 자체를 신경망으로 학습하되, 형식적 검증(formal verification)을 결합하여 안전성 보장을 시도
- Physics-Informed Neural Networks (PINN): 물리 법칙을 신경망의 학습 제약으로 부여하여 물리적 일관성 확보
- Safe RL: 강화학습에 CBF 등의 안전 제약을 결합하여 학습 과정에서도 안전을 보장
- Robust Neural Lyapunov Functions: 신경망으로 리아푸노프 함수를 학습하되 강인 안정성을 증명
결국 방향은 이론적 보장과 데이터 기반 학습의 결합이다. 어느 한쪽만으로는 충분하지 않고, 물리 기반의 구조적 보장 위에 신경망의 유연성을 얹는 혼합 접근이 현실적인 해법으로 수렴하고 있다.
← All posts