..

우린 많은 이름들도

어떤 많은 단어들도 너무 가벼워,

그런 시시한 이유는 아닌데

-

뜬금없이 미팅을 했다. 2년쨰(..)하는 프로젝트 A가 있고 1년쨰 하는 프로젝트 B가 있는데, AB 둘다 동시에 하다가 A는 내가 기력이 다해서 잠깐 쉬는 중이고 그래서 미팅도 없고, B는 오히려 내가 결과를 낸 거 같아서 보고를 하고 싶은데 교수님들 쪽에서 바쁜 상황이다.

B는 C교수님 L교수님과 함께 진행중인 프로젝트인데, L교수님이 개인사가 있어서 그동안은 C교수님과 작업했다. 두 분이 분야가 조금 달라서 이제는 L교수님의 주 분야에서 마무리할 부분이 있어서, C교수님과는 둘이 만나도 뾰족한 돌파구가 안보이는 경우가 다수였고.. 또 C교수님도 다른 일로 바빠져서, 그래서 내가 답답해서 L교수님과 미팅을 잡을 수 있냐고 어제 메일을 보냈는데 오늘 오전에 해보자고 답장이 왔다. 무척 감사한 일이다.. 그렇게 한 미팅은 무척 기분이 좋고 재밌었던 미팅이었는데, 주요 포인트들을 이야기하자면:

  1. 사담을 나누다가 내가 이 프로젝트 이후에 확장하고 싶은 다음 문제에 대해 말씀드림. 교수님도 충분히 문제거리 혹은 논문거리가 될 거 같다고 말씀하셨다.

  2. 내가 쓴 시계열 데이터에서의 coupling 트릭을 개괄적으로 말씀드렸고 구체적으로 검토를 부탁드릴 수가 있었다.

  3. 결과에 대해, 내가 셀링 포인트라고 생각하는 부분 교수님도 중요하다고 느끼시냐고 여쭤봤고, 교수님도 오 충분히 설득력이 있는데요? 라고 하셔서 기분이 무척 좋았음.

  4. 이번에 합류한 통계학과 P교수님과 L교수님이 안면이 있다는 걸 알게 되었고 다음에 식사 자리 주선해주시겠다고 함! (대단한 영광)

  5. 아직 나오지 않은 결과에 대한 교수님이 가진, 내가 생각하지 못한 직관을 들을 수가 있었고 그걸 내 언어로 풀어서 대화하는 감각이 무척 좋았다. (그리고 이런 순간들은 정말이지 문학적이다)

마지막 부분의 대화가 정말 재밌었는데, 교수님은 a(studentization)와 b(self-normalization)가 있을 때 finite sample performance에 대해선 b가 아무래도 나을 거라고 말씀하셨다. 생각지 못했던 포인트여서 잠시 그 말을 곱씹었고, 생각을 정리해보니 사실 굉장히 reasonable한 직관이었다는 생각이 들어서 내 생각을 말씀드렸다: dependent strucuture가 있을 때 studentization은 dependent structure를 바로 반영하지는 못한다는 점에서 SN보다는 수렴속도라고 할까 근사되는 속도가 느릴 수 밖에 없음. 왜냐면 어떤 estimator로 variance를 mitigate하는 studentization과는 달리 SN은 process를 process로 눌러버리는 방법이기 때문.. 이 직관과 이런 대화를 나누는 순간이 무척 즐거웠다.

C교수님 L교수님도, 그리고 프로젝트 A를 함께 하는 J교수님 X교수님 모두 솔직히 진짜 잘해주신다. 가장 못해주시는(?) 분도 솔직히 내가 느끼기엔 과분할 정도로 잘해주심. 나도 받은만큼 나누는 사람이 되었으면 좋겠다는 생각..

-

그리고 또 이런저런 사담을 나누다가 ‘데이빗은 되게 독립적으로 잘하고 있는 거 같아요’ 이런 칭찬 아닌 칭찬을 들었다. 그게 좀 울컥했다. 나는 솔직히 학부부터 지금까지 자의든 타의든(타의였던 모먼트는 지도교수가 학교를 바꿨을 때) 바닥에서 굴렀다고 생각을 하고 근본없이 공부했다고 생각해서 지푸라기 잡듯이 여기저기 다 컨택하고 다니고.. 그렇게 살았는데 그 과정에서 쌓인 한같은 거랄까 게 나도 없지 않아서 그런 부분에 울컥했던듯.. 또 ‘데이빗은 되게 self-motivated되어 있는 거 같다’라는 칭찬(?)도 들었는데.. 어우 너무 과분해서 몸둘 바를 실제로 모르겠었음; 잘해주신만큼 더 연구를 잘하는 사람이 되자.. 그래서 운동 조지고 그냥 집갈까 하다가 다시 연구실 와서 좀 더 보는 중.

-

커플링 트릭을 발견한 게 최근이라 기존에 했던 증명도 이걸로 쉽게 할 수 있지 않을까? 했던 부분이 있었고 교수님이 어 해봄직하다 하셔서 그 부분을 체크 중이다. CLT까지는 무난히, 매우 순탄하게 잘 되는데 -이거 근데 내가 커플링없이 보이는 과정이 1년 걸렸던 거임- FCLT도 보여야되는데 흠.. 이쪽은 내가 사실상 아예 몰라서 공부를 좀 해야한다 미루고 미뤄뒀던 공부.. 박사과정의 교훈(?)이라는 게 있다면 당장 할 공부를 미루면 언젠간 돌아온다는 것..

-

이번주는 머신러닝 스터디 발제를 한다. 여러 주제를 찾다가 결국 처음에 하려고 했던 ‘concept space dynamics’어쩌구 페이퍼를 보고 있는데 무척 재밌고 이 페이퍼가 놓여있는 Representation Learning이라는 분야, 더 세부적으로는 disentagled representation learning이라는 분야가 되게 재밌어보인다. (그리고 이 재미는 실제로 일할 이유는 없는 외부인의 시각에서 느끼는 점이라는 것을 항상염두에 둬야겠다.)

내 개인적인 motivation은 두 가지가 있다:

  1. 모델에 대한 평가기준이 아직 제대로 정립되지 않은 것 같음. 예를 들어 어떤 모델이 다른 모델보다 낫다고 할 때 당장의 퍼포먼스 뿐만 아니라 ‘잠재력’으로 모델을 평가하는 기준도 가질 수 있다면 재밌을 것 같음.

  2. 더 일반적으로는 - ‘블랙박스 모델’이라든지 하는 단어들이 함축하는, ‘특정한 머신러닝 모델들은 사실 인간과는 전혀 다른 세계관으로 굴러가는 게 아닌가?’같은 질문들이 나옴직한 지점들이 있다. 이런 맥락에서.. ‘개념들의 공간concept space로부터 observation들이 나왔다고 가정을 하고, 그리고 그 observation을 통해 학습하는 모델들이 얼마나 concept들을 잘 배우는지, 혹은 어떤 dynamics로 배우는지, 그런 것들이 이 페이퍼의 모티베이션이 되는 거 같다.

이런 일반적인 모티베이션들을 머신러닝 현직자 내지는 공학자에게 전달하려면 매우 세심하게 이야기를 해야겠지.. 잘 아는 것뿐 아니라 아는 걸 전달하는 것도 정말 되게되게 중요하다는 걸, 진짜 당연한 얘기지만 깊이 느끼는 요즘이다..

Comments