BART日本語Pretrainedモデル

BARTは、encoder-decoder型のpretrainingモデルで、BARTの公式サイトでは英語pretrainedモデル多言語pretrainedモデルが公開されています。 公開されている多言語pretrainedモデルを使って、日本語のタスクでfinetuningすることも可能ですが、 公開モデルの日本語文のtoken分割単位は適切ではないと考えます。そこで、入力テキストを形態素解析し、形態素をsubword分割したものをtoken分割単位として日本語テキストのみ(Wikipedia)でpretrainingしました。

詳細

使用法

次のページを参照してください。

ライセンス

MIT License

更新履歴


トップ   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS