日本語 DeBERTa V2 モデルを公開(京都大)arrow-up-right
コーパスは Wikipedia (3.2GB), CC100 (85GB) に加え OSCAR (54GB) を使っており日本語モデルの中では最大規模
https://twitter.com/nobug5c9/status/1611636869963616258arrow-up-right
ライセンスは、CC-BY-SA-4.0なので商用(ブログ)には使えそう
Transformerの最前線 〜 畳込みニューラルネットワークの先へ 〜 - Speaker Deckarrow-up-right
Last updated 3 years ago