Study/Review

[한빛미디어/리뷰] 구글 BERT의 정석

growingtree 2021. 11. 21. 23:40

  

 

 

자연어처리 분야에서 트랜스포머의 BERT는 굉장히 핫한 모델 중 하나이다. 유명세와 다르게 아직 국내에서는 BERT를 다룬 서적은 찾아볼 수 없었다.  그러던 중 이번 11월 한빛미디어에서 국내 최초로 BERT 번역서를 출간하였다.

 

transformer는 기존에 존재하던 RNN , LSTM의 장기 의존성 문제를 해결하는 훨씬 더 좋은 성능을 자랑하는 모델이다. 해당 아키텍쳐의 출현으로 인해 BERT, GPT 등 혁신적인 모델들이 등장하면서 NLP 분야가 더 발전할 수 있는 계기가 되었다. 

 

transformer의 아키텍쳐를 이해하기 위해서는 'attention'의 개념이 중요하게 작용한다. 실제로 transformer를 발표한 논문의 이름 역시, 'Attention Is All You Need' . 졸업 논문 작성을 위해 GPT 모델을 찾아보던 중 transformer를 마주치게 되었는데 attention과 encoder, decoder 등 낯선 개념들로 인해 며칠을 헤맸던 기억이 난다. ;;; 구글링을 해보면 transformer, BERT 를 다룬 블로그, 강의들이 많이 등장하지만, 수박겉핥기식 설명이나 단순 튜토리얼 포스팅이 대다수였다. 

 

<구글 BERT의 정석>은 transformer에서 시작해 BERT의 원리, 활용 , 파생모델, 한국어 모델 등 BERT를 공부할 때 알아야하는 전반적인 내용들을 담고 있다. 동작방식을 설명할 때 수식과 그래프를 이용해 독자의 이해를 높여주려는 지은이의 수고로움이 느껴졌다. 실제로 모델을 활용할 수 있게 예제 코드도 같이 제공하고 있다. 

 

BERT를 공부하면서 가장 어렵다고 느껴졌던 부분은 아무래도 수식이 많이 등장하는 동작원리에 대한 부분이었는데 이 책에서는 이런 내 마음이 알았는지 동작 원리 및 방식에 대해 자세하게 설명을 해주고 있다. (원리설명 부분만해도 책의 절반 정도를 차지한다. )

이 책이 정말 괜찮다고 느껴졌던 점은, BERT계열의 파생모델과 이외 한국어 언어모델(KoBERT , KoGPT2, KoBART) 에 대한 설명 및 코드 활용 부분이었다. 이 책 한 권으로 다양한 모델들을 많이 접해볼 수 있다는게 가장 큰 매력으로 다가왔다.  한국어 언어모델 말고도 다른 언어(독일어, 중국어, 프랑스어 등등)의 BERT 모델도 같이 실려있어 외국의 BERT 모델이 궁금한 사람들에게도 좋은 책이 될 것 같다.

 

 

책의 전체적인 내용은 친절하고 자세한 설명으로 독자의 이해를 도와주고 있지만, 초보자가 보기엔 난이도가 있고, 더 전문적인 느낌이 강하다. 실제 자연어 처리 분야에 일을 하고 있는 실무자나 선수 지식을 보유하고 있는 사람들에게는 더할나위없이 추천하고 싶은 책이다. 

 

 

한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다.

반응형