ep19: SentencePiece: A simple and language independent subword tokenizer and detokenizer for NLP
第19回では,Googleが開発したサブワードによるTokenizer/DetokenizerであるSentencePieceを解説しました.
今回紹介した論文はこちらのissueで解説しています.
github.com/jojonki/arXivNotes/issues/186
番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki
Become a supporter of this podcast: https://anchor.fm/lnlp-ninja/support
Create your
podcast in
minutes
It is Free