@ lovelovetrb
Works
Contact
Activities...
Papers...
YANS2025 ポスター発表
事前学習済みTransformerモデルにおける隠れ層間冗長性の解析とバイパス機構の探索
馬場 海好, 狩野 芳伸(静岡大学)
JSAI2024 発表論文
日本語事前学習済みBERTの言語学的機能による差分入力を用いたAttentionヘッド別機能分析
馬場 海好, 狩野 芳伸, 日本語事前学習済みBERTの言語学的機能による差分入力を用いたAttentionヘッド別機能分析, 人工知能学会全国大会論文集, 2024, JSAI2024 巻, 第38回 (2024), セッションID 3Xin2-69, p. 3Xin269, 公開日 2024/06/11
大規模LSTMを用いた言語モデルの開発と日本語における効果検証
この研究は従来のLSTMの課題を克服したxLSTMアーキテクチャを日本語言語処理に適用し、その有効性を検証したものである。1.3Bパラメータおよびよりコンパクトな125Mパラメータモデルを構築し、Wikipedia日本語データセットで学習した結果、両モデルともに一定の日本語文章生成能力を獲得した。実験では学習過程での文章生成能力の変化を継続的に検証し、比較的少ないパラメータ数でも効果的な日本語言語モデルの開発が可能であることを示した。
Works...
Open Hack U 2024 Tokyo 優秀賞
◀︎