약 2달간 데이터 사이언티스트/AI 엔지니어 직군에 해당하는 60개 정도의 채용공고에 서류를 냈고, 지금까지 5개 회사에 서류 합격을 했으며, 2차례의 과제 전형과 2차례의 입원 면접을 진행하였습니다. 암담한 서류 합격률에 좌절하기도 했지만 결론적으로는 제 분에 넘치는 1승을 달성하면서 좋지 않은 감정들은 덮고 앞으로 감사한 마음에 더 열심히 해야겠다는 각오를 다집니다.
지난 면접 과정을 복기해보면,
거의 대부분 정답에 가까운 답변을 하였지만
작성일 기준 비전공자 학사 출신이라는 점이
줄곧 들어왔던 대로 발목을 여러번 잡긴 했던 것 같습니다.
실제로 답변을 잘 하더라도 논문 구현이나, 개발 역량 관련해서는 스스로 부족하다고 느끼기에 이 부분은 앞으로도 더 채워나가야 될것같습니다.
아무튼 비전공자 출신으로 신입으로 어떻게든 최종 합격을 하긴 했으니!
저처럼 가까스로 붙은 서류라도 면접 준비를 잘 한다면 최종합격 할 수 있다고 생각합니다.
기술면접같은 경우에는 아래의 github을 참고하면서 공부하면서 스터디를 진행하였고,
https://github.com/boost-devs/ai-tech-interview
인성면접같은 경우에는 유튜브 취업 관련 영상을 매일 몇개씩 보면서 대표 문항들에 대하여 정리하고 감을 찾을 데까지 보고 또 보고, 보고 또 보고, 다른 분들의 모의 면접영상을 정말 많이 참고하였습니다.
혹자는 툭 치면 튀어나올정도로 1분 자기소개나 대표 문항들을 연습해야 한다고도 하는데, 아무튼 기술직이기에 기술적인 역량이 어느정도 중요하다고 생각해서 저는 그러지는 않았고, 모든 문항에 대해서 감만 쌓자는 마인드로 영상을 여러번 돌려봤습니다.
보통 1차 면접은 AI팀 리드분과 함께 포트폴리오를 보면서 PT면접을 하거나 프로젝트를 중심으로한 1:1 기술면접을보고,
2차 면접은 대게는 임원 분을 포함한 1대 다의 형식으로 인성면접과 기술면접을 같이 진행하는식으로 진행되는 경우가 많았습니다.
기술 면접의 경우 어렵고 막연한 주제가 아니라, 사실 여러분들이 반드시 공부한 주제들 중에서 나온다고 생각하시면 될 것 같습니다. 그러나 중요한 주제들에 대해서 헛으로가 아니라 제대로 아는게 중요해 보였고
인성 면접 같은 경우 일반적인 인성 질문 외에 아무래도 프로젝트 관련 경험이나 개발쪽 관련 역량을 물어보는 경우도 비일비재 하였습니다.
확실히 스타트업과 중견기업에서 강조되는 부분이 달랐으며, fit을 잘 맞추는 것이 서류나 면접 전형의 합격률을 크게 좌우하는 것 같습니다.
1차 면접과 2차 면접 사이에 주어지는 과제 두번 모두 저 같은 경우에는 캐글에서 자주 볼 수 있는 형태의 과제가 주어졌습니다. 기본적인 머신러닝 책이나 캐글의 지난 컴페티션을 참고하는 것이 좋지 않을까 합니다.
불과 합격 통보를 받기 하루전만 해도, 아니 받은 그 시점에서도 불합격이라 생각하고 다른 회사의 인턴 자리를 면접 보러가고 있었기 때문에 참 믿기지 않았던 것 같습니다.
이전 면접에서는 CEO와의 대담중 '불경기인 요즘에 경력자를 채용하는 이 바닥의 생리와 그 과정에서 당신을 뽑아야 되는 이유'와 같이 압박적이고 현실적인 질문 받기도 하고, 제가 서류 탈락한 회사의 서류 합격자 스펙을 보면서 이바닥에서 살아남으려면 눈을 낮춰서 인턴 경험부터 쌓아야 하나 하는 생각이 드는 와중이었으며, 혹은 똑같이 쉽지는 않은 일이겠지만 학사출신으로는 MLOps나 DA로 방향을 틀어야 하나, 결국 데싸를 하려면 대학원을 가야되나 고민도 깊어져 인턴 자리까지 알아보게 된 것이었는데
개인적으로는 참으로 다행스런 일이 되었네요. 참 순탄치만은 않았던 것 같습니다.
너도 나도 LLM엔지니어를 뽑는 분위기가 만개해 있는 요즘에, LLM을 전공하지 않은 석졸의 경우 석사 졸업임에도 불구하고 서류는 곧 잘 합격하지만 취업 자체가 쉽지만은 않은 지인의 이야기를 들으면서 취업이 나만 힘든 과정이 아니고 모두가 결코 만만치만은 않구나를 다시금 느꼈고, 오히려 이 과정에서 학사 출신이 메리트가 될 수도 있다고 생각했습니다.
결국 신입은 소위 '똘똘해보이는 애'를 뽑는 자리라고 생각했고, 확실히 느낀 것이 이 바닥에서 비전공자 출신이라는 타이틀이 다수인 석사 경쟁자를 이기려면 신입으로서의 성장 가능성을 잘 보이는 것 밖에는 방법이 없는 것 같다고 생각했습니다.
기술 면접
기술 면접에서 특별히 못 들어본 키워드나 주제가 있을거라고 생각하지 않습니다. 질문의 유형과 제가 했던 답변을 공개하고, 본인은 어떤식으로 답변해야 하는지 체크하면 좋을 것 같습니다.
피쳐의 선택을 어떤기준으로 하실건가요?
- 기본적으로 모든 피쳐를 다 선택해서 모델의 성능을 직접 확인해보고, 중요하지 않는 피쳐를 순서대로 제거해나가는 방식이 있을 수 있고, 이와 반대로는 피쳐를 중요해보이는 것 부터 하나씩 조합해 나가면서 선택하는 방법이 있다. 이는 모두 모델의 평가 결과에 따른 사후적인 피쳐 선택방법이다.
- 이 외로는 XGBoost와 같이 모델 자체에 내장된 피쳐 선택 방법이 있거나 RandomForest처럼 Randomsubspace 메소드가 적용된 모델들도 존재한다.
오버피팅은 어떻게 확인하나요?
- 기본적으로 훈련데이터와 검증데이터를 통해 학습시킨 모델의 metric과 실제 테스트 데이터에 적용 시킨 결괏값을 가지고 평가한다. 분명 훈련데이터를 통한 검증데이터의 metric은 잘 나왔으나, 테스트 데이터에 잘 나오지 않았다면 이는 훈련데이터에만 오버피팅 되었다고 말할 수 있다. 사실 훈련데이터의 loss는 잘 줄었으나 검증데이터의 metric이 좋지 않다면 애초에 학습과정에서 여러 training전략을 달리해서 쓸 것이다.
머지 소트와 퀵소트에 대해서 설명해주세요.
- 머지 소트는 지금 당장은 기억이 안나는것 같다.
- 퀵소트는 피벗이라는 기준 인덱스를 삼고 이를 기준으로 정렬하는 알고리즘이다.
Adam 옵티마이저에 대해서 설명해주세요.
- 기본적으로 Stochastic Gradient Descent라고 하는 SGD의 방법에 Momentum을 더한 것과, RMS Prop을 합친것이 Adam이다.
ㄴ RMS Prop은 뭔데요?
- 어떤 동적인 gradient의 변화량을 포착하기 위해서 AdaGrad라는 방법에서는 sqared gradient를 트래킹하여 이를 learning rate로 삼아 각 파라미터별로 학습률을 조정하는데, 이 때 축적되는 squared gradient는 계속해서 합해져 감에따라 크기가 커져만 가고, learning rate로써 나눠줄때 매우 큰값을 나눠줌으로써 학습률이 0에 수렴하게 되는 문제가 발생한다. RMS Prop은 이를 해결하기 위해 velocity vector라고 하는 지수 가중 이동 평균 개념을 도입하였다.
XGBoost는 트리를 어떤 방식으로 분기하는거죠?
- 트리 모델 자체는 정보량 획득을 기준으로 분기한다.
- XGBoost는 그 중에서도 Local한 부분과 Global한 부분을 나누어서 Bucket이라는 개념을 둬서 최적의 정보 획득을 찾게된다.
ㄴ Information Gain이 뭔데요?
R sqaure의 의미를 아는대로 설명해주세요.
- 설명력이라고도 불리며 회귀모델의 성능을 평가하는 중요한 척도중에 하나이다.
- 분모에는 전체 변동에 대한 제곱을, 분자에는 잔차에 대한 제곱을 통해 회귀모델이 얼마나 잘 예측하고있는 지를 이야기 한다.
t test와 u test를 아는대로 설명해주세요.
- t test는 두 표본에 대한 검정을 실시할때 t통계량을 기반으로 검정하는 방법이다.
- u test는 이번 기회에 처음들어보는 것 같다.
BatchNormalization에 대해서 설명해주세요.
희안하게 면접 본 회사 마다 모두 물어본 문항이다. 뭔가 딥린이를 가르는 척도가 되나 싶기도 하다.
- BatchNormalization의 motivation자체는 분포의 수렴이다. 내부 공변량 변화라고 불리는 internal covariate shift를 줄임으로써 모델이 훈련 배치에서 튀는 분포로 학습하는게 아니라, 안정적인 분포를 기대하고 이를 학습하게끔 만들었다.
- 결과적으로 12배 빠른 수렴속도를 보이고, 현재 Batch normalization을 쓰지 않는 아키텍쳐는 없다싶이 하는 것으로 알고 있다.
- 특별히 학습단계와 추론단계에서 달리 작동하는데, 학습시에는 배치를 돌면서 평균과 분산에 대한 지수이동평균을 저장하여 이를 추론때 사용한다.
최근에 읽은 논문 중 가장 SOTA논문이 뭐에요? 실제로 traning시켜보기도 했나요?
- 논문은 주로 프로젝트에서 사용했던 아키텍쳐나 딥러닝 이론에서 핵심적인 역할을 하는 것들에 대해서 다양한 자료들을 참고하면서 논문을 봤다.
- 최근 생성모델이 대두되면서 관련해서 허깅페이스의 데이터셋과 api를 통해 언어모델이나 디퓨전 모델을 사용해본 경험은 있으나 detection이나 segmentation관련 SOTA를 직접적으로 다뤄보거나 구현해본적은 없고 최신 모델은 yolo-v8을 사용해 봤다.
Yolo논문 읽어봤어요?
- v8의 경우에는 논문이 없어서 기본 yolo모델의 논문을 읽어보았다. 사용했던 Mask RCNN과 많이 비교하였다. 특히 v8버전의 경우 Mask RCNN이 헤드를 추가하여 여러 확장성을 가진 것 처럼 실제로 seg버전을 추가 제공하기도 하여 이 부분을 활용하기도 하였다. 자세한 구조는 모르지만 아마 비슷하게 segmentation head를 별도로 두어 학습시키지 않았을까 추측한다.
Average Precision에 대해서 설명해주세요.
- IoU에 기반하여 모델을 Robust하게 평가하기 위한 방법
- Recall과 Precision의 trade-off를 다루기 위해 detection / segmentation task에서 가장 많이 활용하는 metric이다.
- 어떻게 계산하는지 그리면서 직접 설명
Cross Entropy가뭔지 설명해주세요. 식도 써주세요.
- 정보이론의 KL divergence로 부터 출발, 두 분포간의 차이를 보려고 함
- 수식 적고, 예측 벡터와 정답벡터가 어떻게 들어가는지 설명
- weighted balancing을 어떻게 거는지 설명
- NLL loss라고도 불리며 오답에 대해 굉장히 높은 패널티를 부여해 빠른 학습을 가능하게 함
one-stage detector와 two-stage detector의 차이에 대해서 설명해주세요.
- region proposal의 차이가 핵심이다. two stage detector 모델중 rcnn과 fast rcnn과은 selective search라는 별도의 방법을 사용하기도 하였고, faster rcnn같은 경우 RPN network라고 하는 region proposal network를 별도로 두어 end-to-end pipleline으로 task를 진행하는게 특징이다.
- 특히 YOLO로 대변되는 one-stage detector의 경우 이미지를 딱 한번만 보고 그리드로 나눈 뒤, 이에 대해 개별적으로 task를 진행하는 것으로 알 고 있다. 물론 Loss는 동일하게 Regression Loss + classifcation Loss + Confidence Loss가 들어가는 것으로 알고 있다.
ㄴ 그럼 Faster RCNN의 end-to-end랑 yolo랑 뭔차이인데요? yolo도 end-to-end 아니에요? (여기서 좀 절었음)
ReLU함수 및 activation function에 대해서 설명해주세요.
- 함숫값과 미분값을 통한 sigmoid와 tanh와의 비교 및 gradient saturation관한 설명
- dying relu현상 및 Leaky relu 설명
Augmentation을 어떤식으로 해야되는지, 사용 전후 결과가 어떤식으로 달라졌는지 설명해주세요.
- 기본적인 상하좌우, 회전
- 조도 및 명도 채도
- target data를 고려
- instance segmentation에 성능을 올리는데 유명한 것으로 알려진 copy&paste 같은 최신 알고리즘
efficientNet 논문 읽어봤나요? 가장 핵심적인 부분이 뭐에요? 얘가 다른 CNN대비 우수한점을 말해보세요.
F1-Score에 대해서 설명해주세요.
인성 면접
인성 면접은 유튜브에서 볼 수 있는 일반적인 질문들, 자기소개, 지원동기 및 포부, 이런 질문들이 초반에 주를 이루었고, 이력서를 검토하시거나 답변중 특정 키워드에 대해 디테일한 부분들을 묻기 시작하셨습니다. 데이터 사이언스에 한정해서 추가적으로 나올 수 있는 부분에 대해서 몇가지를 공유합니다.
GPT에 대해 어떻게 생각하세요?
- 성능이 말도 안된다고 생각한다. gpt3버전 공개되었을 당시, 저도 그렇고 사람들도 그렇고 많이 의심했던게 사실이다.
그러나 3.5버전과 현재의 4버전을 거쳐오면서 지금은 쓰지 않으면 안되겠다라는 생각이 든다. gpt4의 놀라운 성능을 체험하면서 gpt를 잘 이용하자는 주의로 바뀌었다.
본인의 업무적 역량이 뭐가 있을까요?
- 저는 호기심이 강한 편이라고 생각한다. 남들은 흘깃 지나칠 수 있는 부분들 이지만, 제게는 궁금하고 의문을 가진 것이 당연한 경우가 굉장히 많았다. 이러한 호기심은 결국 데이터를 보는 눈에서도 다르게 나타난다고 생각한다.
공부를 1년정도 하신거네요? 업무를 잘 할 수 있다고 했는데 본인이 남들보다 뛰어난거에요 뭐에요? 컴퓨터 공학과 출신도 아니고 석사 출신도 아닌데 잘 할 수 있을까요?
- 비전공자임을 겸손히 인정하고 부족한 실력을 알고 있었다. 9 to 6의 정규과정 외에 10시 11시까지 공부하고, 모든 주말을 할애하였다. 남들과 비교도 자연스레 해보기도 하고 현직자와의 커피챗 기회도 종종있어 이야기도 나눠보고 했지만, 크게 다른점이 없다고 생각한다. 결국 시간은 아무도 이기지 못한다고 생각한다.
간단한 거라도 성공해봤던 경험이 있을까요?
- 강조해주신 위닝 멘탈리티에 많은 감명을 받았다. 과거 대학교 1학년때 방송 댄스 동아리에 가입하여 축제 무대에 오른 경험이 있었다. 몸치인 제가 안무를 익히는 것은 쉽지 않았고, 다른 동아리원들에 비해 안무를 익히는 속도가 더뎌 연습 과정에서 많은 어려움을 겪었다. 그러나 부끄럽지 않은 무대를 위한 생각에, 연습에 가장 먼저 도착해 가장 늦게까지 남는 것이 일상이 되었다. 잘했던 친구들은 이미 오랜기간 연습했던 경험이 있는 것을 뒤늦게 알게 되었고, 이 경험을 통해 목표 달성을 위한 인내와 노력의 중요성을 더욱 깊이 깨닫게 되었다.
반대에 부딪힌 경험
- 회사처럼 리드가 정해져 있는게 아닌, 동일한 교육생 입장으로 진행하여 프로젝트 중에는 의견 차이가 자주 발생하였다. 의견 충돌이 발생할때마다, 의견의 차이가 있을 수 있음을 충분히 인정하고 오전에 이야기 나눴으면 조금 더 살펴보고 오후에 다시 이야기 하는식으로 세심한 검토를 하려고 노력했다. 사실, 의견 충돌이 없는 프로젝트는 누구나 할 수 있는 쉬운 프로젝트라고 생각하며 소중한 경험이라고 생각한다.
지식이란 무엇입니까?
- 사실과 지식은 좀 다르다고 생각하는데, 지식은 사실로 쌓여진 것 들이 사람에게 받아들여진 총체를 의미하고 추상화되고 개념화 된 것을 의미한다고 생각한다. 특히 딥러닝 이론에서 사실 그 자체인 데이터로부터 원하는 결과를 내기 위한 작업에서 이러한 사실과 지식을 많이 구분하게 되는 것 같다.
꿈이 뭐에요? 뭐 예를 들면 10년뒤
- 도메인 전문가가 꿈이다. 파운데이션 모델은 빅테크가 주도하지만 그 주도 아래에 있는 데이터는 웹에서 쉽게 가져올 수 있는 텍스트와 이미지로부터 훈련된 모델들이다. 하지만 각 도메인의 적용은 일반 데이터를 다루는 것과는 다르다. 데이터의 주권 문제도 대두되고 있기 때문에 도메인 데이터 사이언티스트는 반드시 필요하다. 결국 빅테크 기업이라고 하더라도 모든 도메인의 문제를 해결할 수는 없다고 생각한다. 저는 도메인 전문가가 되기 위해 최신 기술을 팔로업하면서, 여러 가능성을 탐구할 것이다.
본인 때문에 팀에 피해를 주는 상황에선 어떻게 하실껀가요?
- 우선 사과하면서 솔직한 마음을 전달드릴 것 같다. 저는 충분한 시간을 투자한다면 이뤄내지 못할 것은 없다라는 마인드를 갖고 있기때문에 부족한 부분을 반드시 해결할 수 있을 것이라는 믿음을 갖고 있다. 솔직함은 저만의 무기가 아닌 모두에게 통하는 무기라고 생각한다.
학점이 낮은 이유가 뭐에요?
- 감추고 싶은 부분이기도 하다. 대학 시절 진로에 대한 고민이 깊어져 학교 공부를 성실히 임하지는 않았다. 통계가 재밌어서 통계 관련 공부를 하다가 산업공학과를 복수전공하였는데 이때 머신러닝과 딥러닝을 알게 되었다. 그러나 이 때 본전공생들을 따라가기는 쉽지 않았다. 졸업이후 정말 열심히 했다.
대학원 왜 안가요?
- 제가 생각했을 때 결국 하고싶은 것은 데이터를 통해 현업의 문제를 해결하고 싶은게 최우선이었다. 대학원은 결국 연구하고 싶은 주제가 전제가 되어야 한다고 생각한다. 현업의 데이터를 통해 현업의 문제를 해결하고 싶기 때문에 취업을 하는게 더 최우선이다.
일 잘 할 수있어요?
- 모든 일의 핵심이자 공부와 일이 다른 점은 데드라인과 목표라고 생각한다. 공부는 데드라인과 목표를 자율적으로 설정하지만 일은 모두에게 공표되는 규정된 데드라인과 목표가 있다. 이러한 점은 프로젝트를 통해 간접 경험하였으며 충분히 업무 수행의 특징을 이해하고 업무에 대한 태도를 달리 할 수 있다고 생각한다.
관심있는 분야가 뭐에요?
- 처음에는 본전공도 그렇고 딥러닝을 공부하다보면 일반적으로 CNN부터 접하기 때문에 비전쪽에 가장 관심이 있었다, 그러나 결국 하고 싶었던 것은 처음 머신러닝을 접하고 신기했던 그 경험, 데이터를 통해 문제를 푸는 행위 자체에 관심이 있다는 것을 깨달았다.
마지막으로 궁금한거 물어보세요.
- 보통 팀 구성과 맡을 프로젝트 및 업무에 대해서 질문하였음
- 회사의 솔루션에 대해서 물어봤다가 대차게 까인 경험이 있음.
면접 당시에 비전공자에 학사 출신이라 애메한 인상을 풍기고 있었던 상태에서 회사의 솔루션이 어떤건지 질문했다가
일의 진중함과 성숙함을 잘 모르는것 같다면서 까였다
'당연히 기존 것들에다가 튜닝해서 만드는거지, 모두가 알고 있는 공개된 걸로 돈이 되겠냐. 조금만 생각해보면 답이 나오는 질문인데 성숙하지 않은 질문인것 같다'면서, 당신 같으면 신입에게 회사의 솔루션을 공개하겠느냐, 알고나서 퇴사해서 회사차리면 어쩌겠느냐 소리까지 들었다.
당시에는 뭐 그런말을 할 수도 있겠다, 싶은 마음이 한편으로 들기도 했지만, 어차피 뽑을 맘이 없어 보여서
당당히 '딥러닝 연구자로서 일반인의 언어가 아닌 딥러닝의 언어로 궁금해지는게 사실이다' 라고 받아쳤다.
그러더니 그런거 물어볼거면 일 할 인재가 아니라며 대학원을 가라는데
일에서는 4의 법칙을 아냐면서 돈을 4배를 벌어다 줘야 되는데 2억을 어떻게 벌어다줄건지 설명하라고 하셨고
이 때 연봉 5천주나? 솔깃하긴 했다.
신입은 결국 단기간에 4의 법칙을 극복할 수는 없다고 했고, 빠르게 적응하는 것이 4의 법칙을 개인적으로 극복하는 방법이며 책임질 수 있는 자리에 오르는 것이 4의 법칙을 넘어서는 일이다라고 함.
너무 식상하고 일반적인 답변이라면서 그럼 개발자들은 보통 4의 법칙을 어떻게 깰까요? 라고 되물었고
개발자도 동일하게 데이터 사이언티스트처럼 여러 공부를 하고 신입으로 입사하겠지만 처음에 4의 법칙을 깨기 쉽지 않은 것은 동일하며, 신입 개발자도 빠른 적응으로 원활한 협업을 하는 것이 4의 법칙을 깨는데 핵심일거라고 답변함.
그러더니 맞는 얘기는 같네요 하시고는
미안하지만 당신같은 사람들이 쓸데없는 논문을 읽고 앚아 있는걸 너무 많이 봐와서 안될 것 같다면서 결국 깠다.
덧붙여서, 우리는 네이버에서 떨어진 사람을 허들을 낮춰서 데려오고 싶은 회사가 아니다. 스톡옵션을 줄수도 있고 더 많은 것들을 줄 수 있는 회사인데 우리가 왜 네이버에서 떨어진 사람을 데려와야 하냐? 우리는 아직 그럴 준비가 되지 않았다. 라고 하셨고,
회사에 강한 프라이드가 보여서 저때 회사에 관한 다른 질문을 하거나 뭔가 loyalty를 언급했으면 붙었나 싶기도 하고 궁금하기도 하다.
회사의 대표는 확실히 뭔가 다르다고 느낀 것이 불과 면접을 진행한지 몇 분만에 내 스스로만 간직하고 있는 줄 알았던 약점과 단점으로 작용할 수 있는 성격과 성향을 정확히 꿰뚫어서 놀라웠고, 과거 이력과 현재의 개발적인 역량에 대해서 많이 태클을 걸어왔다. 스타트업 씬에서는 힘들겠구나를 뼈저리게 깨달았음. 과감한 발언들이 많지만 사실이긴 하니까. 대표는 정말 아무나 되는 것이 아니구나. 내리 1시간 이상 질문을 쏟아내시고, 고민하고, 심지어는 하다하다 mbti까지 묻기도 하셨으니 정말 많은 고민이 되셨으리라 생각된다.
덕분에 면접에서 질문자의 의도를 곱씹어 생각해야하고, 답변을 할때도 좀더 핵심을 꿰뚫는 답변을 해야된다는 소중한 교훈을 삼고, 더 좋은 면접 스킬을 얻게 된 것 같아 고맙게 생각하는 한편이긴하다.
일단 1차 정리는 이것으로 끝. 추가적인 내용이 있다면 차차 수정하겠습니다.
'끄적끄적 > 끄적끄적' 카테고리의 다른 글
일부 카테고리명 변경 (0) | 2024.10.24 |
---|---|
울리는 말 두가지 끄적끄적 (0) | 2024.04.28 |
문제의 난이도를 모델링 할 수 있을까? (0) | 2023.08.06 |
놈과의 대화 - ② 도대체 무엇을 믿을 수 있는가? (0) | 2023.06.23 |
놈과의 대화 -① (0) | 2023.06.22 |