나는 넥슨 인공지능 연구소에 인턴으로 지원했고 과제 전형에서 탈락했다.
나름 최선을 다했다고 생각했지만 돌이켜보니
부족한 부분과 아쉬웠던 부분이 떠올라서 복기해보고자 한다.
1 : 최선
내가 아는 만큼은 최선을 다했다 캐글 분석캠프에서 배운 내용과 여러 참고자료를 바탕으로
할 수 있는 방법을 최대한 동원하려고 노력했다. 그게 문제다 아는 만큼만 최선을 다했다.
2 : 창의적인 접근
나는 창의적으로 데이터에 접근하지않았다 정확도를 높이는 데에만 집중했고 비교적 단순한 파생변수를 만들었다.
한 마디로 말하자면 다른 지원자들이 기본으로 했을 법한 것들만 한 정도?
분석가로서의 데이터 분석보다 엔지니어로써 더 집중한 것이 아쉽다.
( 시간 간격에 대한 파생변수를 만들어 보지 못한 아쉬움 등등.. )
3 : 고정관념
머신러닝의 정확도를 최대한으로 끌어올릴 수 있는 방법 중에 Stacking이라는 방법이 있다.
하지만 오버피팅을 유발할 수 있고 되도록이면 사용하지 않는 게 좋다는 고정관념이 있어 사용하지 않았다.
뒤늦게 제출하고 사용해보니까 test 정확도가 88,2 % -> 90.15%로 많이 올라가더라.
이것 때문에 탈락했다고 생각하진 않지만 그래도 괜히 아쉽다.
4 : 이 정도에 만족
전문가가 되려면 진짜 변태처럼 깊게 파고들어야 한다.
하지만 나는 하는 내내 "이 정도면 됐지 여기서 뭘 더 해~" 이런 마인드는 전문가가 될 수 없는 방해물인 거 같다.
결과적으로 이런 마인드가 위에서 얘기한 모든 아쉬움의 근본이 되어버린 것이다.
난 88%에 만족했다.
5 : 간절함 부족
꼭 입사하고 싶다는 간절함이 부족했다. 나는 희망사다리라는 장학금을 1년동안 받아서 만약 대기업에 입사하게 되면
장학금을 토해내야 하는데 그런 것들이 작용하면서 붙어도 문제다... 떨어져도 괜찮아 이런 생각과 꼭 대기업이 아니라 스타트업에서 처음 시작하는 게 오히려 더 도움이 될 수 있다는 생각이 겹치면서 간절함이 많이 부족했다.
복기를 했으니 이제 개선에 집중하자.
문제를 알고도 고치지 않으면 제 자리 걸음을 할 수밖에 없다.
'Self-improvement' 카테고리의 다른 글
[Event]. Langcon 2023 참가후기. (0) | 2023.02.25 |
---|---|
[졸업]. 했습니다 (5) | 2023.02.21 |
[일]. 질문 잘하기 (1) | 2022.03.14 |
[이직]. 머신러닝 엔지니어(AI개발자) 이직 성공기 (1) | 2021.08.31 |
[일상] 자위행위를 안하면 어떻게 될까? ( Nofap , 금욕 , 금딸 , 금란물 ) (4) | 2020.06.08 |