Q. 학습을 잘 시키기 위해서 왜 Regularization이 필요한가요?

Q. 학습을 잘 시킨다는 것은 무엇을 의미하나요?



안녕하세요~ 이번에는 Deep Neural Network (DNN)을 학습 시키기 위해서 사용되는 regularization(규제화) 기법에 대해서 알아볼께요.


위키백과에서는 Regularization에 대한 개념정의를 아래와 같이 해놓았어요.


"Regularization is the process of adding information in order to solve an ill-posed problem or to prevent overfitting."


위의 정의를 알아보기 위해서 overfitting이라는 개념부터 알아보도록 할께요. 


아래 두 그림 처럼 O,X를 구분하는 DNN을 학습시킨다고 해볼께요. 두 그림 중 어느 DNN 모델이 더 학습을 잘 한것 같나요? 물론 대다수 분들이 오른쪽이라고 할 거에요. 왜냐하면 완벽히 O,X를 구분했으니까요. 그런데 딥러닝에서는 일반적으로 왼쪽 그림과 같은 경우가 학습이 잘 됐다고 하는 경우가 많아요. 왜일까요?


<사진1>



위와같이 왼쪽 그림이 더 학습이 잘됐다고 판단을 하는 이유는 크게 두 가지에요. 


첫 번째는 "우리가 학습하는 데이터에는 잘 못된 학습데이터들도 있을 것이다"라는 점이에요. 만약에 outlier 또는 noise(or 불순물)가 섞인 데이터가 포함되어 있다고 생각해봅시다. 위 그림을 예를들어보면 O에 깊숙히 침투해 있는 두 개의 X는 사실 불순물이 섞였을 가능성도 있는거에요. 이런 좋지 않은 데이터로 학습하면 학습결과가 좋지는 않겠죠?


두 번째는 "DNN 모델이 학습데이터에만 지나치게 편중하여 학습시키는 것이 좋지 않을 것이다"라는 점이에요. 예를 들어, 가위를 구별하려는 DNN 모델을 만든다고 가정해볼께요. 아래 가위를 학습데이터로 이용한다고 합시다. 아래 가위의 특징은 톱니모양, 검은색 및 동그란 손잡이 등등이 있겠네요. 


   

<사진2>



자 이제 학습된 DNN 모델로 아래 사진들의 가위들이 가위인지 아닌지 구별해보려고 합니다. 자! 그럼 실행시켜볼께요~ 엥? 위에 학습된 DNN 모델이 아래 그림들에 있는 사물들이 가위가 아니라고 결론을 지었네요.. 왜일까요? 

 


<사진3>


사람들은 대부분 위의 사물들이 가위라고 결론을 내리지만 학습된 DNN은 그렇지 않았어요. 그 이유는 학습된 DNN 모델이 지나치게 "사진2"에 있는 가위의 특징을 학습했기 때문이에요. 그러니까 "사진3"에 있는 사진들은 톱니모양도 없고, 손잡이도 검은색이 아닌경우도 있기 때문에 "가위"가 아니라고 결론을 내린거에요. 즉, '사진2'라는 데이터에 DNN 모델이 너무 편중되게 학습을 한 것인데 이러한 현상을 우리는 DNN모델이 학습 데이터에 overfitting 되었다라고 표현해요. 


DNN 입장에서 엄밀히 말하자면 "내가 학습했던 이미지에서의 가위랑은 달라!"가 되겠네요. 그래서 우리는 DNN이 학습시 주어지는 학습데이터에만 너무 치중(specific)하지 않도록 하여 일반적(general)으로 판단할 수 있게 해주는 "일반화(Generalization)"성능을 향상 시키는것이 학습시 더 중요하다고 판단을 내린거에요. 즉, overfitting을 피한다는 것은 DNN의 일반화성능을 높인다는 말과 일맥상통해요.



그렇다면 이러한 일반화 성능을 향상시키는 방법에는 무엇이 있을까요? 


다시 아래그림을 살펴볼께요. 오른쪽 그림은 학습데이터에 지나치게 편중된 모델이에요. 지나치게 편중되었다는 것은 DNN 입장에서 가중치값들이 지나치게 학습데이터에 편중되어 있다는 뜻과 같은 말이에요. 왜냐하면 DNN에서는 입력(학습데이터)는 항상 고정값이고 (이미지를 학습한다고 생각해보세요. 입력이미지값은 변하지 않아요!), 가중치를 업데이트해서 무엇가를 분류하기 때문이에요.

<사진4>


그렇다면 가중치가 업데이트 될 때, 학습데이터에 편중되지 않도록 해주면 되지 않을까요? 

이러한 물음에서나온 방법이 Regularization이에요! 좀더 풀이하자면 업데이트되는 가중치에 규제를 가해야 한다는 뜻이에요. 그럼 지금부터 Regularization의 종류들에 대해서 알아보도록 할께요


Regularization의 대표적인 종류는 L1, L2 regularization입니다. 우선 L1, L2를 나누는 이유는 regularization을 적용할 때 쓰이는 norm 때문이에요. 우선 L1 norm과 L2 norm에 대해서 짧게 설명드릴께요. 




<1.Norm>


Norm이란 벡터의 크기를 의미해요. 벡터의 정의와 크기를 구하는 공식은 아래의 영상을 보시면 될거에요. (첫번째 영상은 벡터의 정의를 다루었고, 두 번째 강의에서 크기가 언급될거에요)









요약하자면 하나의 벡터가 2차원이면 x=(x1, x2)라고 표현되고, 3차원이면 x=(x1,x2,x3)라고 표현될거에요. 그리고 영상에서 소개한 크기 공식을 일반화하면아래와 같이 표현할 수 있을거에요.



또한 norm과 관련된 식은 아래와 같이 나타나요. (L1 norm은 p=1만 대입해주면 L1 norm 식이되요)


그렇다면 본격적으로 L1, L2 regularization에 대해서 알아볼까요? 우선 L2 norm에 대해서 알아보고 L1 norm과 L2 norm을 비교하는 방향으로 알아볼거에요.



<2. L2 regularization (Ridge regression)>



아래수식은 2장에서 설명드린 가중치를 업데이트 하는 수식이에요. 



우리는 가중치가 크게 업데이트가 될 경우 이를 규제(억제)시키려고 해요. 그렇다면 위의 수식을 어떻게 변경시켜주면 될까요? 먼저 아래식들을 볼께요.


1번 수식은 MSE cost function이에요. 1/2이 MSE 수식앞에 붙은건 미분을 거친 후 계산을 편하기 하기 위해서에요 (미분을하면 제곱이 1/2과 곱해져서 1이 되겠죠?). 그리고 2번 수식을 잘 살펴볼 필요가 있어요. Regularization을 위해서 새로운 cost function을 만들어줬는데 식을 자세히 보내 (λ/2)||w||^2 를 더해주었네요? 더해진 식이 의미하는 바가 무었일까요? 


더해진식을 자세히 보면  λ X L2 norm이라는 것을 볼 수 있어요.  (1/2)이 곱해진 이유는 gradient descent로 학습시 적용되는 미분계산 이후의 과정을 편하게 하기 위함이고, 람다(λ)가 곱해진 이유는 regularization의 정도를 결정하기 위함이에요(보통0~1사이로 조절한다고해요). 중요한건 왜 L2 norm이 적용됐냐는 부분이에요.


큰 가중치값이 overfitting에 영향을 미치기 때문에, 그 벌(페널티)로써 큰 가중치 값이 업데이트 될 때에는 업데이트를 더 급격하게해주려는 의도에요. 예를 들어, 가중치값이 0.1 인 경우(w=0.1)와 3인 경우 (w=3)에는 w=3일 때 더 큰 값이 이전 가중치 값인 w(t)에 더 큰 변화를 줄 거에요 (즉, w(t+1)값과 w(t)값의 변화가 클거라는 말이에요). 다시말하자면, L2 norm이 적용돼었다는건 큰 가중치값을 가질수록 학습시 더 큰 페널티를 주겠다는거에요. 


그런데 왜 큰 가중치값이 overfitting에 영향을 미친다고 판단한걸까요? 우선 L2 norm에서는 항상 결과값이 음이아닌 정수이기 때문에 0에 가까운 값이 작은 값이 되고, 0에서 멀어질 수록 큰 값이됩니다. 이러한 개념이 weight에 적용되기 때문에 가중치값이 작다는 말은 바꿔말해 0에 수렴하는 것이라고 말할 수 있겠네요. 


앞서 신경망이 계산되는 원리를 설명드렸죠? Wx->activation->Wx-> .... ->Wx

결국 DNN 모델은 거대한 Wx 함수의 연속이라고 추상화시킬 수 있는데요. 만약에 Wx^2+Wx+1 이런식으로 표현된다고 했을 때, coefficient 값에 해당하는 W값이 커지게되면 그래프모양이 굉장히 sharp하게 그려질거에요 (sharp하다는 표현이 조금 애매하긴한데, noise가 섞인 데이터조차 표현하다보면 그래프가 완만해지기 보다는 sharp해지는 경우가 흔하기 때문에 이렇게 표현했어요).


<사진5>


또 다른 측면에서 보면 입력값에 해당하는 X의 차원이 높으면 높을 수록 overfitting이 일어나는 경우가 있어요. 그래서 X입력값과 결합되는 가중치 W의 값이 0에 가까울 수록 X입력값의 차원이 줄어드는 것 처럼 보일 수도 있겠네요. (이부분은 이해가 안되시면 넘어가도 좋아요. 추후에 Curse of Dimension (차원의 저주) 라는 개념에 대해서 다시 설명하도록할께요)


아무튼 결론적으로 요약하자면 가중치 값이 크면 overfitting을 일으킬 확률이 크다고 보기 때문에, 큰 가중치에 대해서는 L2 norm이라는 식을 적용하여 가중치 업데이트시 페널티를 주고 있어요. 그리고 이러한 행위를 Weight decay (regularization) 라고 부르기도 해요.


하지만 필자는 이런의문이 들어요. "정말 큰 가중치가 overfitting을 일으킬까? 학습데이터에 따라서 큰 가중치값이 더 좋을 수 있지 않을까? 오히려 overfitting을 일어나다는 것은 오차값(E=d-y(x;w))이 적다는 뜻이므로 오차값을 크게 만드는데 관여하는 w에 대해서 페널티를 주는식을 만드는것이 더 효율적이진 않을까?"


물론 딥러닝이라는것이 기계학습의 일부로 확률적 모델을 기반으로 하기 때문에 어떤 개념을 명확하게 설명하는게 힘들긴 하겠지만, 위와 같은 질문을 통해 regularization을 적용할 시 L2 norm이 아닌 다른 방식을 써보는건 어떨까라는 생각을 해봤어요.  




<3. L1, L2 regularization 비교>


L1 regularization (Lasso regression)은 따로 설명을 하진 않았지만 L2 regularization을 보셨다면 쉽게 이해 되실거에요. 앞선 "<1.Norm> 파트에 언급된 수식에 p=1만 집어 넣고, L2 regularization 수식에 적용된 L2 norm 부분은 L1 norm으로 바꿔주기만 하면되요.



L1 reguralization은 L1 norm을 적용하기 때문에 가중치 크기에 상관없이 일정한 상수값으로 매번 페널티를 부여받아요. 가중치의 부호에 따라 +λ or -λ 의 상수값이 되겠네요.


그렇다면 이렇게 가중치와 상관없이 '일정한 상수값'이 페널티로 부여되면 어떤일이 발생할까요?


  VS 



결과론적으로 말씀드리자면 상수값 때문에 L2보다는 L1에서 낮은 가중치값에 해당하는 coefficient가 0이 될 확률이 높다고 설명해놨습니다. 사실 이부분이 이해가 잘 안되서 외국분들에게 질문했는데요. 답변해주신 내용을 통해 아래와 같은 해석을 할 수 있었습니다.


가중치 값이 낮은 경우 L1 norm이 더 0으로 빠르게 수렴하게 영향을 미치는지 살펴볼께요. 먼저, 낮은 가중치(0~0.01)가 있다고 가정해봅시다. L1 norm, L2 norm 둘다 가중치를 업데이트하는데 영향을 미칠거에요. 그러다보면 값이 0.01 값보다 점점 더 작아질거에요 (물론 람다(0~1)의 부호에 따라서 설명이 달라지겠지만 여기서는 가중치가 양의 값을 갖는 0~1사이에 값이라고 가정할께요. 이에 따라 업데이트 되는 가중치의 변화는 0.1->... ->0.001 이런흐름으로 작아질거에요. 하지만 지속적으로 업데이트 하다보면 가중치 w는 0에 가까운 값을 갖게되고 그렇게 되면 L2 regularization에서 사용되는 미분된 L2 norm은 아래수식과 같이 0에 수렴하게될거에요. 



요약하자면, L2 regularization에서는 학습을 하다 결국 w가 0에 가까운 값을 갖게되는 시점부터는 가중치 업데이트할때 E(x)만 관여하게 되는거에요 (위의 수식참고). 결국 어느 순간부터는 수식이 아래와 같이 바뀌겠네요. 이렇게 보면 L1이 regularization에 좀더 공격적이라고 표현할 수 있겠어요. (그런데 이 설명이 완벽하진 않아요. 왜냐하면 작은 가중치에 대한 εΔE(w) 값이 가지는 범위에 따라서 해석이 달라질 수 있거든요. 그래서 가끔 느끼는거지만 딥러닝을 설명하는데 있어서 명확하게 설명되는 부분이 종종 있다고 느껴져요. 그냥 확률적으로 그렇다고 설명하고 넘어가는 부분들이 종종있어서..) 


  VS 


아무튼 중요한 점은 가중치값이 작아질 수록 0에 수렴하게 하는 regularization 기법에는 L1이 더 적극적일 확률이 높다는거에요!

(아래링크는 제가 질문하고 답변을 받은 내용들이에요)

https://datascience.stackexchange.com/questions/65828/how-does-l1-regularization-make-low-value-features-more-zero-than-l2



그렇다면 이제 위의 개념을 기반으로 다른설명들을 해볼께요. 


먼저, 아래식을 먼저 볼께요. 위에서 설명한대로라면 x2, x4, x5 앞에 붙은 가중치 값들이 0이 될 확률이 높아요! 그렇게 된다면, x1, x3, x6 만으로도 충분히 Deep Neural Network를 나타내는 식을 만들어 낼 수 있어요. 즉, 입력차원을 줄일 수 있어서 모델의 complexity를 줄여준다는 건데, 이렇게 입력차원을 낮아주게 만들어 나타나는 효과는 다음장 curse of dimension에서 다룰거에요.



다시설명하자면, 가중치값이 굉장히 낮은 부분은 0에 수렴한다고 보기 때문에 오히려 없애주어 얻는 효과가 DNN 성능향상에 미치는 영향이 크다고 보는 거에요.


아래 그림은 실제 regularization식을 적용해보고 학습을 시켜본 결과입니다. 329번 학습을 시켰을 때, 학습이전 낮은 값을 갖고 있던 가중치값들이 중 몇몇이 L2보다 L1 regularization에서 더 많은 zero값을 갖게 된 것을 볼 수 있죠?


     

<사진6>


또하나 주의할 점은 L1 regularization에 적용되는 L1 norm은 절대값이 포함되어있기 때문에 미분이 안되는지점이 발생할 수 있다는 점입니다.  


<사진7>



(간혹 딥러닝 공부하시다보면 smooth L1 norm이라는 개념이 튀어나오는데, 이 개념은 보통 loss function에서 많이 다루어요. 추후에 Convolutional Neural Network (CNN)이라는 개념을 다룰 건데 여기서 smooth L1 loss를 사용해요~ 물론 다른곳에서도 많이 사용하겠지만요;;ㅎㅎ 한가지 힌트를 드리자면 당연히 n1 norm의 단점이라고 할 수 있는 학습 시 미분불가능한 부분을 개선했겠죠?? )



지금까지 내용을 요약하자면 아래와 같아요.

1. 가중치가 큰 값은 overfitting을 일으킬 요인이 크기 때문에 학습시 페널티를 주어야한다는 관점에서 나온것이 weight decay regularization이에요. 

2. Weight decay regularization 종류에는 L1-regularization, L2-regularization이 있어요. 

3. 가중치가 큰 정도를 판단하기 위해 가중치를 하나의 벡터라고 가정했고, 그 벡터의 크기를 가중치의 크기로 보고자 L1-norm, L2-norm이라는 개념을 도입해 L1-regularization, L2-regularization을 고안해냈습니다.

4. L1-regularization은 L2-regularization 보다 낮은 가중치 값을 0으로 만들어줘 입력차원을 줄여주는 경향이 있고, 이것은 입력차원을 낮춰주는 효과가 있어요.

5. 보통은 weight decay regularization에서는 L2-regularization이 사용되고 있어요.  




이번장에서는 overfitting을 이유로 들어 왜 regularization이 DNN을 학습시킬 때 필요한지 알아보았어요. 하지만 조금 깔끔하지 못했던 것이 중간에 'curse of dimension', '입력차원'이라는 용어를 설명없이 기술해놓았기 때문이에요. 그래서 다음장에는 curse of dimension이라는 개념을 설명해보려고합니다!




[사진 래퍼런스]

사진1, 사진4

https://www.youtube.com/watch?v=dBLZg-RqoLg

사진2

https://ko.wikipedia.org/wiki/%EA%B0%80%EC%9C%84

사진3

https://m.blog.naver.com/PostView.nhn?blogId=kkss0234&logNo=220141976191&proxyReferer=https%3A%2F%2Fwww.google.com%2F

사진6

https://developers.google.com/machine-learning/crash-course/regularization-for-sparsity/l1-regularization?hl=ko

사진7

https://donaldaq.github.io/articles/2018-09/Art-of-ML

안녕하세요~ 시간여행자에요!


오늘은 과거 대만사람들이 반한감정을 가진 이유에 대해서 설명해보도록 할께요! 이번장에는 대한민국과 대만의 관계를 시기별로 나누어 설명하려고 해요~



1) 초기

본래 중국과 북한이 공산주의 연합이었고, 한국과 대만이 민주주의 연합이어서 전우애 같은 것이 있었습니다. 우리는 대만을 자유중국 (중화민국) 이라고 불렀고, 중국을 중공(중화인민공화국)이라고 불렀었다. 그래서 일반적으로 중국이라고 하면 중화민국즉 대만을 일걷는 말이었다고 하네요


단교 직전인 1990년 기준으로, 서울에는 미국, 소련, 프랑스, 서독, 영국, 일본, 이탈리아 등 이른바 세계 열강의 대사급 외교관이 상주하여, 중화민국 외교관이 대사 자격으로, 강대국 대사들과 대등하게 접촉하는 유일한 공간이 대한민국 이었기 때문에 한국과 대만의 관계는 상당히 끈끈했다고 하네요.


 

2) 대만 UN 탈퇴


1945년부터 한때 대만은 UN 안전보장이사회의 상임이사국 중 하나였지만, 1971 10 25일 중화인민공화국이 UN에 공식 가입하게 되면서 UN 총회의 투표 결과에 따라 결국에는 중화인민공화국에게 상임이사국 자리를 내줘야 했고 UN에서도 자의 반, 타의 반으로 탈퇴하게 되었습니다


당시 UN 총회에는 중화민국 축출과 중화인민공화국의 상임이사국 지위 획득을 지지하는 알바니아의 결의안과 그것을 반대하는 미국의 안이 동시 상정되었는데, 서방 국가들(캐나다, 프랑스, 이탈리아 등)도 다수가 알바니아의 결의안에 찬성표를 던져 미국에 충격을 주기도 했습니다


이때는 아직 중국의 저력이 핵무기 정도에 국한되어 있었지만, 어느 정도 예견되기도 한 결과인것이, 프랑스는 이미 1960년대에 중국과 수교했다. 당시 미국은 중국을 대표하는 권리는 포기하되 대만(Taiwan) 지역의 주권국가로서의 회원국 지위는 유지하는대만 공화국? 타협안을 제시하기도 했으나 대부분의 나라들이 반대하고 중화민국도 거부하여 무산되었고, 표결 직후 UN 총회에서 중화인민공화국의 합법적 권리 회복을 골자로 하는 '2758호 결의'가 찬성 76, 반대 35, 기권 17로 통과되고, 그 직전에 중화민국이 스스로 UN 탈퇴 선언을 함으로서 UN 상임이사국 지위는 물론 회원국 지위를 완전히 상실하게 되었습니다


, 서방국가들 또는 UN 가입국들이 중국의 영향력 (중국에 자신들의 기업들을 투자 유치 등) 을 우선으로 하여 대만을 버린 것이라 할 수 있는데요. 사실, UN에서는 중공의 UN 가입을 반대하다가 중소결렬 (공산주의의 해석차이 + 한국전쟁에 소련이 중국을 제대로 돕지 않음 (소련은 남한 침략에 회의적이었음)) 이후에 미국을 위시한 서방국가들이 소련 견제를 위해서 중국과 손 잡는 것이 유리하다는 판단을 내리면서 정책변화가 일어난 것입니다


이러한 국제 정세의 변화는 대만을 중국의 정통 정부로 인정하고 국교를 맺어온 한국에게도 커다란 충격으로 다가왔다. 특히 한국전쟁의 일방 당사자 가운데 하나였던 중국이 UN에 가입하고, 그것도 상임이사국이 됨으로서 한국전쟁 휴전 협정이 무효화될지도 모른다는 불안감이 한국 사회에 밀어닥치기도 했다. 그걸 빌미로 유신헌법이 만들어져 제4공화국이 출범하기도 했습니다.

 


3) 한중 수교


대한민국과 중화민국은 이토록 친밀했지만 1971, 중화민국이 안보리 상임이사국 자리와 전 중국의 대표자격을 빼앗기며 UN에서 추방당할 때(대만 축출)는 도움을 주지 못했는데요. 그 이유는 당시 한국은 공산권의 반대로 참관국이었을 뿐, 가맹국이 아니라 반대표를 던질 수 없었기 때문입니다


그러다가 1988년에 출범한 노태우 정부가 공산권과 외교 관계 개선에 적극 나서면서 한국-중국 및 한국-대만 관계에 변화의 기류가 나타나기 시작합니다. 소위 북방정책으로 표현되는 이러한 외교 노선에 따라 한국은 헝가리, 폴란드, 체코슬로바키아, 유고슬라비아, 불가리아, 루마니아 등 동구권 국가들과 수교한 데 이어 1990 10월에는 공산주의의 종주국 소련과 수교함으로써 북방정책의 정점을 찍게 되는데요특히 중국은 한국과 수교할 경우 이에 반발한 북한이 친소로 기울어질 것을 염려하여 한중 수교에 미온적이었는데, 1991 8월 쿠데타 이후 소련이 급속히 와해되면서 상황이 급변하게 됐다고합니다


한국은 노태우 정부의 사실상 임기 마지막 해인 1992년 안에 중국과 수교함으로써 북방정책의 대미를 장식하고 싶어했고, 중국 역시 한국과 수교함으로써 대만을 아시아에서 완전히 고립시키게 되었습니다. 물론 한중 수교가 가시화되면 북한과 대만이 견제에 나설 게 불 보듯 뻔한지라 한중 외교 당국자들은 북한과 대만을 설득하여 양해를 구하는 절차를 생략하고 비공개로 직접 수교 교섭을 벌여야 했습니다.

 


4) 단교

1992년에 대한민국이 중화인민공화국과 수교 교섭을 할 때 중국 측은 여느 때와 마찬가지로 하나의 중국원칙을 들이대며 대만과의 단교를 조건으로 내걸었습니다. 그리고 이것은 중국의 외교에서 최우선 원칙으로 대한민국에만 요구한 것은 아니였으며, 당장 미국도 1979년 중국과 수교하면서 중화민국(대만)과는 단교하였습니다


대한민국은 당시 중화민국에 있어 최후의 대국이었는데요. 중화민국 외교관이 외교부장(외무부 장관)으로 가는 엘리트 코스의 마지막 관문이 바로 주한대사였다고도 합니다


그렇지만 한중수교는 한국의 입장에서는 북한에 대해, 중국의 입장에서는 대만에 대해 외교적 판정승을 상징한다는 점에서 양국의 이해가 맞아떨어지는 부분도 있었기에 언젠가는 이루어질 수밖에 없었다고 합니다.


하지만, 결정적으로 한국과 대만의 관계가 틀어진 것은 단교가 되고 나서부터이다. 마침내 중국과의 수교가 정식으로 맺어지기 일주일 전인 1992 8 15. 결국 한국 외무부는 중화민국 대사를 소환해 비공식적으로 중국과의 수교, 중화민국과의 단교 계획을 밝힙니다. 한편 첸푸 외교부장은 주한 대사관으로부터 한중수교 합의를 통보받은 후 8 19일 입법원 대표들을 외교부로 불러 한국이 중국과 수교하고 대만과 단교한다는 사실을 통지하고 이에 동요하지 말 것을 당부합니다


하지만 입법원 의원들은 외교부장의 당부에도 불구하고 이를 즉각 언론에 누설하였고, 대만 내 여론은 격분했다. 한국 정부는 대만 소식통을 통해 한중수교 뉴스가 전해지자 처음에는 즉각 부인했다가 결국 하룻만에 이를 번복하여 한중수교 사실을 시인했는데, 이 때 대만에 유학중이던 한국외대 중국어과 학생이 대만인들에게 폭행을 당하는 사건도 있었습니다


그리고 8 21일 공식적으로 중화민국에게 단교 문서를 전달하려고 했는데, 중화민국측에서 선수를 쳐 대한민국과의 단교를 선언했습니다. 그리고 중국과 수교를 맺은 24, 중화민국 대사관에 72시간 내에 국기와 현판을 내리고 철수해줄 것을 요구했고, 이후 중화민국 대사관은 6시간 만에 국기 하강식을 갖고 한국을 떠났습니다. 실제로 당시 중화민국 국적의 화교들이 눈물로 진 대사를 배웅했으며, 일부는 울분을 참지 못하고 거리에 나가 한국 정부를 규탄하는 시위를 벌였다고 합니다.


 

5) 중국

중화인민공화국을 국가승인하지 않았던 한국이 1988년 한국이 중화인민공화국에 대한 호칭을 중공에서 중국으로 변경했을 때, 중화민국 측은 항의했습니다. 중화민국이 중국 대륙의 정통 국가라는 원칙을 훼손하기 때문입니다. 여러 번 강조되지만, 여타 소국들과 달리 한국은 차례 차례 단절되어 가는 중화민국 외교에서 최후의 대국이었기에 그러한 조치가 중화민국 입장에서는 중대하게 받아들여질 수밖에 없었는데요. 아래와 같은 연설은 당시의 대만의 입장을 잘 보여주는 대목입니다.

 

한·중 외교관계 수립으로 대만은 이번에 세 번째 타격을 받았다고 말합니다. 첫 번째는 1971년 유엔에서 쫓겨난 것이고, 두 번째가 미중 수교, 세 번째가 한중 수교라는 것입니다. - 첸지천 중화인민공화국 외교부장의 국제정세 문제에 관한 연설(’92. 09. 05.)

 



6) 그외의 반한감정 요소들

다음장에서 일본과 대만과의 관계를 설명할텐데요. 결론적으로 말하자면 대만은 일본에게 굉장히 긍정적인 감정을 가지고 있었다고 합니다. 이러한 부분이 반한감정을 부추기는 또하나의 요소라고도 하는데 더욱 중요한 요소는 대한민국의 성장이라고 보는 것이 일반적입니다.


사실 대만은 우리나라보다 경제적으로 굉장히 앞선 나라였는데요 (한국전쟁이후에는 모든 나라가 대한민국보다 잘 사는 나라였죠;;). 대한민국이 눈부신 경제발전을 이룩하자 상대적으로 대만이 뒤쳐지는 모습에 반한감정이 생겼났다고해요. 물론 대만과의 수교를 단절한 것이 큰 요소였겠지만, 앞서 언급했던 여러요소들이 결합하여 반한감정을 부추기는 역할을 했다고해요




7) 현재

하지만 요즘 세대들은 반한감정이 있었나 할정도로 대만과 한국의 관계는 우호적으로 변했습니다. 특히 요즘에는 Kpop의 영향으로 요즘 세대들은 서로에 대한 호감도가 점차 올라가는 중이라고해요~  2018년에는 더욱더 교류를 활발하게 하기위해서 한국인들은 입국시 혜택을 주는제도도 생겼다고하는데요. 여행했을 당시에도 반한감정같은게 뭔가할 정도로 사람들이 친절했고 아무튼 너무 좋았습니다~


외국공항에서 한글이 적혀진 경우가 얼마나 있을까요????????? ㅎㅎㅎㅎ


 


https://namu.wiki/w/%ED%95%9C%EA%B5%AD-%EB%8C%80%EB%A7%8C%20%EA%B4%80%EA%B3%84

https://namu.wiki/w/%EB%8C%80%EB%A7%8C/%EC%99%B8%EA%B5%90

https://namu.wiki/w/%EC%A4%91%EC%86%8C%EA%B2%B0%EB%A0%AC

 

 


안녕하세요~ 시간여행자에요!


이번시간에는 대만의 초대 총통인 장제스라는 인물에 대해서 알아보려고 해요!


지난시간에 본성인, 외성인 등을 설명하면서 청나라가 대만이라는 섬을 실효지배했다고 배웠어요. 이번장에서는 대만의 초대 총통인 장제스라는 인물이 어떻게 등장했는지 알아보려고해요.


사실 청나라가 멸망하고 오늘날의 중국으로 넘어가기까지 굉장히 많은 사건이 있었는데요, 그 과정은 홍콩편 '쑨원은 누구인가?'에서 언급하려고합니다. 그러니 여기에서는 시간적 흐름만 설명만 하도록 할께요!


'1894 청일전쟁' -> 청나라 패 -> 청나라 학생 중 하나인 쑨원이 국가의 무능함에 분개 -> 황제가 아닌 백성을 위한 나라를 만들고자 함 -> 삼민주의(민족, 민권, 민생)를 앞세워 혁명을 일으킴 ->  1912년 신해혁명을 통해 청나라 몰락시키고 '중화민국(대만)'을 수립 -> 국민당 창당 -> 쑨원은 소련의 도움을 받은 공산당 세력 (모택동)을 포섭 -> 1925년 쑨원 사망 -> 장제스가 국민당 대표가 됨'


장제스에 대한 좋은 영상이 있어서 유튜브링크를 걸어 놓을께요. 한 번 보시면 좋을 듯 합니다~







요약하자면 아래와 같아요!



당시 청나라가 몰락하고 쑨원이 곧바로 모든 청나라의 영토를 지배한 것은 아니었어요. 군벌세력들이라고 해서 여러 세력들이 존재했는데 장제스는 모택동과 함께 1차 국공합작을 통해 이러한 세력들을 진압해 나갔어요.


하지만 진압하는 과정에서 모택동의 공산당원들이 희생을 당하자 더이상 합작을 진행하지 않았는데요. 장제스는 민주주의 이념에 반하는 공산당을 처벌해야 한다고 주장하면서 1927.4.12 상하이에서 공산당을 진압하기 시작했어요. 이것이 바로 국공내전이에요. 


하지만 일본의 제국주의가 거세지기 시작하면서 다시 제2차 국공합작이 이루어지기 시작해요. 1943년 미국(루즈벨트), 영국(처칠), 중화민국(장제스)은 이집트 수도 카이로에 모여 5일간 회담을 갖게 되는데요. 여기서 한반도의 독립이 비공식적으로 논의 되었다고 해요. 비공식회담이라 공식적인 문서는 존재하지 않지만 장제스는 한반도의 독립을 주장했다고 해요 (그 이유에 대해서는 여러 논란이 있지만요). 아무튼 장제스가 윤봉길 의사에게 감동받아 상해임시정부를 도와주었던 점도 있었고 대한민국에게는 많은 도움을 주려했던것 같아요. 이와 관련한 자세한 부분은 상해 여행에서 다룰께요~


1945년 미국의 히로시마 원폭으로 일제가 항복하자 1946~1949년 제2차 국공내전이 발생하게되요. 처음에는 장제스의 중화민국이 절대적으로 유리한 상황이었지만 점점 모택동의 중국 공산당에게 밀려나게 되고 지금의 대만섬으로 피신했다고 해요.


장제스가 일본에게 대항할 때, 당시 자신들의 역사가 담긴 신석기 때부터 청나라까지의 문화재들을 지키기 위해 가장 귀중한 69만 여점을 선별해 각종 지역에 숨겨두었는데, 국공내전에서 마오쩌둥에게 밀리면서 대만으로 이주할때 모든 문화재들과 군인 200만을 데리고 갔다고 해요


이때 옮겨진 문화재들이 현재 타이페이 부근의 고궁박물관에 위치하고 있으며, 이 박물관은 동양의 역사와 문화재를 대표한다는 측면에서 세계 4대 박물관 중 하나로 뽑히고 있는데, 사실 신석기때부터 청나라때까지 가장 유명한 문화재를 보려면 현재 북경이 아닌 대만의 타이페이로 가야한 다고 합니다!


중화민국은 섬으로 피신하고 중국공산당이 모든 영토를 지배하게 되자, 결국 중국공산당이 중화인민공화국(오늘날 중국)으로 바뀌게 되고, 1970년대 UN에서도 중화인민공화국의 압력에 밀려나게되요. 상임이사국 자격을 박탈당하죠. 그 이후로는 여러나라들이 중화인민공화국의 압력에 못이겨 단교를 하는 상황이 벌어지게 되요. 결국 1992년 대한민국과도 단교를 하게됩니다.



이번장에서는 장제스에 대해서 알아봤는데요. 그 과정에서 언급된 "고궁박물관"과 장제스를 기념하는 "중정기념관"을 방문했기에 관련 후기를 쓰려고해요~



<1.고궁박물관>


아래가 고궁박물관이에요. 박물관안에는 굉장히 많은 유물이 있는데, 실제로는 모든 문화재를 전시를 하지 않는다고 해요 (워낙 수가 많으니까요;;ㅎㅎ). 고궁박물관 뒤에 있는 3000M 넘는 고봉 200개에 보물을 숨겨놓고 3개월마다 교체하는데, 모든 유물을 다 보려면 30년이 걸린다고 하고, 주요 전시물들을 제외한 것들은 3~6개월 마다 교체한다고 해요!





사진촬영이 허용된 문화재중에 대표적인 '취옥백채'만 사진으로 남겼었어요. 취옥백체의 정보는 아래와 같아요.

사용용도: 청나라 11대 광서제의 왕비인 서비의 혼수품

줄기의 하얀색 부분: 순결을 의미

초록 잎: 미와 젊음을 의미

한쌍의 메뚜기: 다산의 의미



공식적으로 확인 된 바 없으나 중국이 대만의 UN 가입 조건으로 비밀리에 제안한 것이 바로 취옥백채를 들려주는 것이었다고 해요. "만약" 사실이라면 이 제안을 대만은 일언지하에 거절하였으니 이 옥배추가 지닌 무한한 예술적 가치를 가늠해 볼 수 있을 것 같아요~


그외 여러 문화재들을 감상할 수 있어요. 그리고 정말 오래된 문화재이지만 정말 독특하고 세련된것들이 많았어요. 오늘날에는 모든 것을 기계로 만들지만 저 당시에는 저런것들을 모두 손으로 많들었던것을 생각해보면 과거의 사람들이 현대인보다 손재주는 훨씬 뛰어났을것 같다는 생각을했어요.



<2.중정기념관>


1975년 장제스 사망을 기리기 위해 중화민국 행정원이 기념당의 건설을 결정하였고해요. 




본당 건물의 높이가 70m. 본관으로 이어지는 계단은 모두 89개인데, 이는 장제스가 사망한 나이 89세를 의미한다고 해요. 제가 방문했을 때는 보수공사중이었어요. 



해당 부지는 본래 육군본부 및 헌병사령부로 쓰였던 곳이고, 미국의 링컨 기념관을 본따 만들어졌다고해요




중정기념당의 경비병들은 모두 현역 군 의장대로 구성되는데, 10~17시 사이에 매시 정각마다 교대를 한다고해요. 건물이 바라보고 있는 방향이 서북쪽 방향인데 이것이 중국본토 방향이라고해요. (본토의 수복의지를 표현한걸까요?) 당시 방문했을 때 교대식을 영상으로찍었는데 용량크기 때문에 편집을해야할 것 같네요 ㅎㅎ 시간있을 때 금방해서 올릴께요!



중국의 전통적 건축양식의 하나로, 패방(엄밀하게는 패루)이라는 문이 있는데 중국에서는 지금도 사적지 (역사적으로 중요한 사건이나 시설의 자취가 남아 있는 곳)를 조성할 때 패방을 세운다고해요. 


"본래 건립 당시에는 大中至正(대중지정)'이라고 쓰여 있었는데, 민진당 시대에 이걸 '自由廣場(자유광장)'이라고 바꿔 버렸다. 대중지정(大中至正)'이라는 의미는 치우침 없이 공정하다는 의미로 장개석의 호인 중정과 관련이 있었는데, 마잉주(馬英九) 총통어 전임자인 야당 민진당의 천수이볜 전 총통이 집권한 후, 민진당은 국민당의 흔적 지우기 일환으로 대중지정이란 글자를 지우고 자유광장으로 바꾸었습니다. 중정기념당의 이름도 대만민주기념관으로 바뀌었다가, 후에 다시 중정기념당으로 환원되는 일도 있었죠." 인용사이트 ->http://blog.naver.com/PostView.nhn?blogId=lek0705&logNo=221672269799&categoryNo=7&parentCategoryNo=0


그런데 문구를 바꾸는것만으로도 엄청난 세금이 투입된다고해요. 그래서 더이상 문구를 바꾸지 않고 그냥 두었다고합니다.



현재 대만에는 국민당과 민진당이 주요 정당인데, 아이러니하게 국민당은 중국과 우호적일 것을 주장하고 있고, 민진당은 대만의 강력한 독립을 주장하고 있어요. 차이잉원 현 총통은 이러한 기념당이 권위주의 숭배라며 기념품 판매를 금지시키고, 매년 2.28일 폐관을 시키고 있다고 합니다. 대만 국민은 대만의 독립을 강력하게 지지하지만, 랜드마크가 되어버린 중정기념관을 비판하는 민진당에 대한 입장에 대해서는 부정적인 시각이 지배적이라고 해요. 






중국분들이 이 글을 보면 싫어하실 수 있겠지만, 대한민국 사람입장에서는 임시정부를 도와주었던 장제스가 무력이 아닌 다른 방식으로 공산당을 흡수했으면 어땠을까라는 생각을해요. 장제스가 쑨원만큼 했다면, 장제스가 오늘날 중국을 통일했다면, 오늘날 중국이 민주주의 국가였다면 우리나라가 분단되는 일이 있었을까요?


여행내내 대만이라는 곳을 둘러보면서 이러한 생각들이 항상 맴돌았네요! 





+ Recent posts