OpenAI의 GPT-3이 엄청난 언플을 통해 대중들에게 꽤나 핫하다. 국내 유명 경제 팟캐스트에서도 소개가 되었으며, 마치 혼자 글을 청산유수처럼 짓는 것처럼 묘사되었다. GPT-3의 비밀을 파헤쳐보자. 문장을 만들어내는 인공지능에는 아래 움짤처럼 보통 인풋으로 키워드가 좀 들어간다. 이를 바탕으로 글을 쓰기 위해서, 머신러닝 모델이 엄청난 양의 데이터를 '학습한' 것을 바탕으로 아웃풋을 낸다. 예를 들어보자. 즉 인풋으로 '로봇공학의 삼원칙 중 제1원칙을 말하라'를 줬을 때, 이에 맞도록 '로봇은 인간에게 해를 가하거나, 혹은 행동을 하지 않음으로써 인간에게 해가 가도록 해서는 안된다'를 말해야 한다. 이를 위해 GPT-3은 엄청난 양의 텍스트를 학습했다. 약 3000억개의 텍스트 토큰이 사용되었다...