E1-1
|
クレオールは計量的に峻別できるか?
|
|
川崎 義史 (東大), 永田 亮 (甲南大), 高村 大也 (産総研), 大谷 直輝 (東京外大) |
|
本論文では,テキストデータから得られる計量的な特徴により,クレオールと非クレオールを峻別できるかを検証しています.具体的には,順位頻度分布や要素の大きさ(単語長と節長),語彙の豊富さなどの指標を用いて,これらの大小によって,クレオールと非クレオールとを大別できることを示しています.手法は単純でありながら,興味深い結果を導いています.また,上層言語とレンマ化による仮想言語との関係から,クレオールの単純説が部分的に支持されることも示しています.これらは言語学的にも有効な知見であり,優秀賞にふさわしいと判断しました. |
D1-4
|
ベイズ教師なし文境界認識
|
|
内海 慶 (SB Intuitions), 持橋 大地 (統数研/国語研) |
|
本論文では,文境界を教師なし学習によって推定する手法を提案しています.テキスト中の各文字にそこが文境界であるかを表す二値の潜在変数があると仮定し,それを推測するタスクとして定式化しています.改行などの情報を事前分布として有効に利用しつつ,シンプルで精度の高い文境界推定が可能になっています.文境界の推定はSNSなどを対象とした自然言語処理の際に重要な前処理であると考えられ,提案手法は,幅広く使える有効な手法であると思われます.手法の高速化を含め,有用性や実用性が高く,優秀賞にふさわしい研究であると判断しました. |
P1-7
|
テキスト生成における最小ベイズリスク復号の理論的な理解に向けて
|
|
市原 有生希 (NAIST), 陣内 佑, 蟻生 開人, 森村 哲郎 (サイバーエージェント), 内部 英治 (ATR) |
|
本研究は,最小ベイズリスク復号 (MBR) において,高品質な出力を得るための有効な手法であることを数理的観点から証明を行っています.具体的には,モデルの分布に基づくモンテカルロ法を用いたMBRと真の解との性能差が,参照仮説集合の大きさによって縮小できることを示しました.本研究は大規模言語モデル隆盛の時代に必要とされる技術であり,発展性および応用可能性が高いと考えられるため,優秀賞にふさわしい論文と判断しました. |
P2-4
|
ウェーブレット位置符号化
|
|
岡 佑依, 長谷川 拓, 西田 京介, 齋藤 邦子 (NTT) |
|
本研究は,位置符号化手法の一つであるRoPEがウェーブレット変換の一種とみなせることを示した上で,ウェーブレット変換を用いた新しい位置符号化を提案しています.既存手法を一般化したうえで機能を拡張しており,その効果を実際に言語モデルの学習に利用した実験でも確認しています.また,外挿が可能となることで追加の再学習が不要となり,最大系列長拡張の学習コスト低減という産業上の課題解決にも貢献が期待できるなど,有用性も高く評価できることから,優秀賞にふさわしい論文と判断しました. |
Q2-4
|
llm-jp-judge: 日本語LLM-as-a-Judge評価ツール
|
|
中山 功太, 児玉 貴志, 鈴木 久美 (NII), 宮尾 祐介 (NII/東大), 関根 聡 (NII) |
|
本研究は,日本語におけるLLM-as-a-Judge評価を統一的に扱うためのツールとして,llm-jp-judgeを提案しています.また,品質評価,および,安全性評価においてLLM-as-a-Judgeと人手評価の比較を行うメタ評価を行い,多くの項目において両者の間に高い相関があることを明らかにしました.これにより,llm-jp-judgeの評価結果の信頼性が担保されていると考えられます.これらの理由より,本研究は今後のLLM開発において有用なツールになると考えられるため,優秀賞にふさわしい論文と判断しました. |
P2-12
|
部分空間の擬似直交性によるTransformer言語モデルの内部表現の解釈
|
|
前田 晃弘 (JAIST/日本学術振興会), 鳥居 拓馬 (東京電機大), 日髙 昇平, 井之上 直也 (JAIST), 大関 洋平 (東大) |
|
本論文では,直交性の定義を緩めた疑似直交という概念を導入し,アテンション層およびFFN出力層の部分空間の幾何的関係を分析しています.FFN層が概念を表現するベクトル(コンセプトベクトル)を事前学習しており,FFN 層の出力がTransformer の内部状態の文脈化を担っている可能性を実験を通して示しています.理論と実例による両面での検証がなされており,有用な知見を多く含んでいます.これらの理由により,本論文は,今後のTransformerの内部の解明・解釈に大いに役立つと考えられるため,優秀賞にふさわしいと判断しました. |
A4-5
|
コーパスの逆蒸留
|
|
盧 慧敏 (東大), 磯沼 大 (東大/エディンバラ大/NII), 森 純一郎 (東大/理研), 坂田 一郎 (東大) |
|
本研究は,大規模言語モデルにおいて,ある学習データがもたらすモデルの変化と逆の変化をもたらす学習データを生成する学習データ逆蒸留を扱っています.提案手法は対照的デコーディングに基づく軽量な手法であり,有害性除去の実験でその有効性を検証しています.大規模言語モデルの実応用において重要な技術であると同時に,手法の汎用性も高く,優秀賞にふさわしいと判断しました. |
Q4-10
|
モデル拡張によるパラメータ効率的な LLM の事前学習
|
|
矢野 一樹 (東北大), 伊藤 拓海 (東北大/Langsmith), 鈴木 潤 (東北大/理研/NII) |
|
大規模言語モデルの事前学習には膨大な計算リソースが必要とされます.本論文では,大規模言語モデルの事前学習において,モデル拡張とパラメータ効率の良い調整手法の2つの手法を組み合わせた手法STEPを提案しています.実験によって,提案手法が必要な最大メモリ要求量を最大53.9%削減しながら,事前学習の評価タスクと学習したモデルを微調整する下流タスクいずれにおいても,通常の事前学習と同等の性能を達成できることを示しています.2つの手法を組み合わせるという着眼点の新規性と高い発展性,より効率的に大規模言語モデルの事前学習を実施するという重要な課題に取り組んだ有用性から,優秀賞にふさわしいと判断しました. |
C6-3
|
難易度調整可能な多枝選択式読解問題自動生成手法とDirect Preference Optimizationによる難易度調整精度の向上
|
|
富川 雄斗, 宇都 雅輝 (電通大) |
|
本研究は,Llama 2を用いて難易度調整可能な多肢選択式問題を生成する手法を提案し,Direct Preference Optimization(DPO)による難易度調整精度の向上を実証しています.RACEデータセットを用いた評価により,提案手法の有効性が確認され,Few-shot学習では難易度調整が不十分であることを示した点も意義深いです.また,69のQAシステムを仮想回答者とする実験設計は,人的コストを削減しつつ多様な検証を可能にする新しい研究手法として注目に値します.DPOを活用した難易度調整の試みとその有効性を示した点を高く評価し,本研究は優秀賞にふさわしいと判断しました. |
D6-5
|
音素の合成性を仮定した連続信号をサインとした分散的ベイズ推論に基づく記号創発
|
|
齋藤 一誠, 劉 智優, 長野 匡隼, 中村 友昭 (電通大), 谷口 彰 (立命館大), 谷口 忠大 (京大) |
|
記号創発研究ではサイン自体の生成・認識能力の学習過程にこれまであまり取り組まれてきませんでした.本研究では,音素の組み合わせから単語を形成する過程に焦点を当てるとともに,連続信号をサインとして用いた記号創発モデルという独創性の高い提案を行っています.また,その優位性を実験結果で示した上で提案手法の課題と次の研究の方向性についても触れており,今後の発展にも期待できることから,優秀賞にふさわしい論文と判断しました. |
Q6-25
|
意思決定を指標とする生成テキスト評価:アマチュアと専門家への影響分析
|
|
高柳 剛弘 (東大/産総研), 高村 大也 (産総研), 和泉 潔 (東大), Chung-Chi Chen (産総研) |
|
本研究は,アマチュアと金融の専門家の投資の意思決定に対するLLM生成テキストの影響の違いについての分析を行っています.分析の結果,アマチュアは専門家と比較してよりLLM生成テキストの影響を受けることを明らかにしました.また,LLM生成テキストによって予測能力が低下することや,強い意見表現を含むプロモート文は専門家にも影響があることなども示されました.本研究ではLLM生成テキストの抱えるリスクについても指摘しており,今後のLLM開発における社会的責任を果たすうえで重要な知見を示唆していると考えられるため,優秀賞にふさわしい論文と判断しました. |
A7-4
|
大規模言語モデルにおけるIn-context Learningの推論回路
|
|
趙 羽風, 加藤 万理子, 坂井 吉弘 (JAIST), 井之上 直也 (JAIST/理研) |
|
本研究は,大規模言語モデルにおけるin-context learning (ICL)の内部機序を分析したものです.具体的には,ICLの推論を三つの基本操作に分解し,それぞれの基本操作の役割を実験的に分析すると同時に,それらが構成する推論回路のICLにおける重要性を示しました.ICLの内部機序の理解を一歩進めた研究であり,今後の関連研究の発展にも寄与すると考えられ,優秀賞にふさわしいと判断しました. |
Q9-2
|
言語のインクリメンタルな処理の仕組みは普遍的か?:投機性によるparsing strategy再考
|
|
石井 太河, 宮尾 祐介 (東大) |
|
本研究は,構文解析における Top-down と Bottom-up の二つの parsing strategy の違いを「投機性」と捉え,パラメタ化する一般化を提案しています.具体的には,構文木の各ノードを予測する際に「子の何割が作られてから親を作るか」を投機性パラメタとして制御を行えるようにし,その上で,10言語における次トークン予測と構文解析の比較実験を通じて言語による投機性の違いなど興味深い知見や,教師なし構文解析モデルの精度が低い理由を説明する仮説を提示しています.計算言語学的な観点からも意義のある研究だと考え,優秀賞にふさわしい論文と判断しました. |
C10-5
|
大規模言語モデルの再パラメタ化に基づく初期化による損失スパイクの抑制
|
|
西田 光甫, 西田 京介, 齋藤 邦子 (NTT) |
|
大規模言語モデルの事前学習において,損失関数の値が突然発散してしまう損失スパイクは重要な課題です.本論文では,パラメータの更新比率の違いに着目し,その更新比率の不均一性を解消するための共通の標準偏差とゲートパラメタを利用した初期化による損失スパイクの抑制手法を提案しています.実験によって,損失スパイクの抑制と従来の初期化手法と比べた際の言語モデルとしての性能向上を示しています.本手法は,シンプルながら有用性は高く,また,ライブラリ互換性も損なわないため導入ハードルも低く,今後の大規模言語モデルの開発に大きな影響を与える可能性があると考えられることから,優秀賞にふさわしいと判断しました. |
P1-19
|
ニューラルかな漢字変換システム Zenzai
|
|
三輪 敬太 (東大/Turing) |
|
かな漢字変換は最も身近で実用されている自然言語処理技術の一つです.本研究は,かな漢字変換に Transformer Decoder ベースの言語モデルを適用した手法を提案し,高い変換精度を達成しています.また,ニューラルかな漢字変換の課題である推論速度の問題に対し,統計的かな漢字変換をドラフトモデルとして利用し数ステップ分の候補トークンを高速に予測しておくことで,Transformer Decoder モデルの出力と一致することを保証しつつ並列処理を可能にして対処するなど,実用性の面でも高く評価できることから,若手奨励賞にふさわしい論文と判断しました. |
P2-8
|
Transformer LLMにおける層単位のFFN層の重要度検証
|
|
池田 航(東北大) |
|
本研究は,Transformerの構成要素の一つであるフィードフォワードネットワーク (FFN) に着目し,モデル内の配置場所に依存した重要度の検証を行っています.具体的には,中間から後半の層に FFN を集中的に配置することで精度が向上するという新たな知見を示しました.TransformerはLLMにおける基礎的な技術であり,本論文のFFNの役割の調査は今後のTransformerの新たなアーキテクチャの提唱や実行の効率化に繋がると考えられるため,若手奨励賞にふさわしい論文と判断しました. |
P3-3
|
IMPARA-GED:言語モデルの文法誤り検出能力に着目した文法誤り訂正の参照文なし自動評価
|
|
坂井 優介 (NAIST) |
|
本研究は,参照文なしで文法誤り訂正(GEC)を自動評価する手法として,IMPARA-GEDを提案しています.文法誤り検出能力を強化した事前学習済み言語モデル(PLM)を活用し,品質推定モデルを構築することで,従来手法より高精度な評価を実現しました.SEEDAデータセットを用いた評価実験では,特に文単位の人手評価と最も高い相関を示し,実用性の高さが確認されました.さらに,window-analysis により,上位システムの評価性能が向上していることも示されました.新規性のある手法の提案と綿密な実験による検証を高く評価し,本研究は若手奨励賞にふさわしいと判断しました. |
Q3-23
|
llm-jp-eval-mm: 日本語視覚言語モデルの自動評価基盤
|
|
前田 航希 (科学大/NII) |
|
本研究は,日本語性能に関する複数のマルチモーダル課題を統一した環境で評価するためのツールキット llm-jp-eval-mm の提案を行っています.さらに,ツールキットの公開に加えて,継続的な開発のための設計概要および多数の VLM を評価した結果を報告しています.日本語を対象とするVLMの評価基盤が整っていない中,共通的に利用できるツールの整備を進めた点で有用性が高いことから,若手奨励賞にふさわしい論文と判断しました. |
Q4-3
|
Ruri: 日本語に特化した汎用テキスト埋め込みモデル
|
|
塚越 駿 (名大) |
|
本研究は,日本語汎用テキスト埋め込みモデル Ruri の提案を行っています.Ruriでは,訓練データの不足を補うためのLLMによる合成データ生成,対照事前学習による訓練,そして高品質データを用いたチューニングを実施し,モデルと学習データを併せて公開しています.モデル・データ・手法を併せて公開することは有用性が非常に高く,NLPコミュニティへの貢献が認められると考えられるため,若手奨励賞にふさわしい論文と判断しました. |
B4-5
|
言語モデルの事前学習におけるバリエーションセットの効果
|
|
芳賀 あかり (NAIST) |
|
本研究は,子供向けの発話が言語モデルの学習効率を向上させることができるというアイデアのもとに,言語モデルの事前学習においてバリエーションセットの効果の検証を行っています.子供と言語モデルの言語獲得の共通点を指摘したうえで,バリエーションセットを用いることで,文構造の理解に加え自然言語理解能力の向上に有益な影響を与える可能性を明らかにしました.本研究は効率的言語モデルの学習において興味深い示唆を与えると考えられるため,若手奨励賞にふさわしい論文と判断しました. |
P4-7
|
認知負荷の最適化戦略としての自由語順と項省略
|
|
梶川 康平 (東大/国語研) |
|
本論文では,日本語における自由語順と項省略が言語コミュニケーションの効率性に及ぼす影響を検証するために,自由語順と項省略の有無を制御したコーパスを作成し,記憶と予測における処理負荷の観点から比較分析をしています.その結果,自由語順かつ項省略が存在する言語は,記憶と予測の負荷を抑制する点で有利であることを明らかにしています.本研究は,言語コミュニケーションの特性を理解する上で重要な知見を提供しており,今後の発展も期待できることから,若手奨励賞にふさわしい論文と判断しました. |
P4-21
|
言語モデルのふるまいと多重実現
|
|
坪井 祥吾 (一橋大) |
|
本研究は,言語モデルを用いた言語学的研究の正当性について,科学哲学の「多重実現」という概念を導入し,理論的に検討しています.言語モデルと人間の言語処理の違いを踏まえた上で,得られた知見をどのように人間に外挿できるかを整理し,研究手法の妥当性を評価するためのフレームワークを提案しています.このような哲学的・概念的な視点からの分析は,言語モデル研究の基盤を強化する上で重要であり,今後の議論にも大きく貢献すると考えられます.理論的に有意義な枠組みを提供する点を高く評価し,本研究は若手奨励賞にふさわしいと判断しました. |
A5-1
|
層の冗長性と層同士の独立性に基づく言語モデルの層交換の成否の特徴づけ
|
|
小林 春斗(東北大) |
|
本論文では,ニューラル言語モデルにおいて,層の交換が可能な場合が存在するという現象について,層の冗長性と層同士の独立性という2つの観点から層の交換可能性の尺度となる指標を提案しています.指標が十分に小さいことが層を交換できることの必要条件となっていることを理論的に示すとともに,学習済みのGPT-2を用いた実験において指標が層同士の交換のしやすさを予測できることを示しています.本研究は独創性も高く,モデル結合の研究に影響を与え,発展させる可能性のある研究であることから,若手奨励賞にふさわしいと判断しました. |
P5-10
|
判決書要約文の自動評価
|
|
新保 彰人(科学大) |
|
本研究は,法律の専門家と協力しつつ,判決書要約文に特化した評価ルーブリックの策定と,評価リールブックに基づくデータセットの構築,LLMベースの自動評価器の構築を行っています.評価実験の結果,LLMベースの自動評価器は人間と同程度の性能を示しています.本研究は判決書要約における有用な知見を発見したのに留まらず,今後異なる専門ドメインに特化した自動要約研究にも参考になる研究と考えられるため,若手奨励賞にふさわしい論文と判断しました. |
A6-2
|
大規模言語モデルにおいて数値属性間で共有されるスケーリングベクトルの解析とその応用
|
|
峰岸 剛基(東大) |
|
本論文では,大規模言語モデルの内部表現空間における数値操作を対象に,異なる数値属性間に共通する方向成分「スケーリングベクトル」の存在について分析しています.分析では,部分的最小二乗法やスピアマン相関を用いて,「スケーリングベクトル」の存在を示している.また,介入により他属性への副作用が生じる可能性やfew-shotプロンプティングにおいて異なる属性間での交絡から出力に副作用が生じる可能性を示しています.これらの分析結果は,大規模言語モデルの解釈性向上や制御手法の開発において有用な知見であり,今後の発展が期待できることから,若手奨励賞に値する論文と判断しました. |
Q6-15
|
Wikidataに基づく大規模ジオコーディングデータセット
|
|
中谷 響 (NAIST) |
|
本研究は,場所を表す言語表現を地理データベースの適切なエントリと紐付け,地理座標を出力するモデルのための大規模データセットの構築を行っています.具体的には,WikipediaとWikidata を紐づけて収集することによって自動構築を可能にしています.ジオコーディングは災害管理や疾病監視など社会的に意義のある研究であり,本データセットが分野の発展に期待できることから,若手奨励賞に値する論文と判断しました. |
A7-2
|
埋め込み表現の独立成分の言語内・言語間一貫性の分析
|
|
飯森 栄治 (東大) |
|
本研究は,単語埋め込み表現から抽出された独立成分の言語内および言語間の一貫性を分析したものです.具体的には,独立成分分析を複数回実行して得られた結果をクラスタリングし意味軸の再現性を調査し,さらに言語間の意味軸の一貫性を統計的に分析しています.単語埋め込み表現が持つ情報に関する有用な知見を提供すると同時に,分析の方法論としての発展性も高く,若手奨励賞にふさわしいと判断しました. |
A7-3
|
構成的汎化におけるTransformerの内部機序の分析
|
|
九門 涼真 (東大) |
|
本論文では,構成的汎化におけるTransformerの内部機序に関して分析をしています.subnetwork probingを用いて,構成的汎化タスクを高い精度で解くサブネットワークを特定し,ベースモデルと発見されたサブネットワークについて,機械翻訳と意味解析においてどの程度統語的特徴に依存しているかという観点で分析しています.統語的特徴が完全に削除された場合に汎化精度が極端に低下することなど,機械翻訳や意味解析における統語的特徴への依存が実験的に示されています.内部機序の解明という挑戦的なタスクに丁寧な実験と分析が行われており,若手奨励賞にふさわしいと判断しました. |
P7-25
|
ダイアグラム理解に向けた大規模視覚言語モデルの内部表現の分析
|
|
吉田 遥音 (東北大) |
|
本論文では,大規模視覚言語モデル(LVLM)のダイアグラム理解能力を解明するために,その内部表現をプロービングに基づいて詳細に分析しています.具体的には,LVLMがどのように視覚情報を認識し,それらをどのように保持しているのかをモデルの各層ごとに検証しています.実験はデータセットの構築を含め慎重に設計され,ダイアグラムのノードの色や形,エッジの色や有無に関するLVLMの内部状態を明らかにしています.本論文で得られた知見は,LVLMのダイアグラム理解能力の向上や内部機序の解明において重要であり,今後の発展にも期待できることから,若手奨励賞にふさわしいと判断しました. |
Q8-15
|
Sparse Autoencoders as a Tool for Steering the Output Language of Large Language Models
|
|
Sebastian Zwirner(早大) |
|
本研究は,sparse autoencoderを用いて,大規模言語モデルの出力言語に関連づいた特徴量を抽出し,その値を変化させることで出力言語を制御することを提案しています.提案手法は,単一のニューロンにより制御する既存手法より,出力言語の制御および言語生成性能で上回ることが実験で示されています.直感的でシンプルかつ発展性も高いことから,若手奨励賞にふさわしいと判断しました. |
E9-2
|
Cognitive Preference Optimization: 脳情報による言語モデルの選好最適化
|
|
原田 宥都 (東大) |
|
本論文では,人間がテキストを読む際の脳波情報を活用して大規模言語モデルの選好最適化を行う手法を提案しています.提案手法は,人間がテキストに対して直接ラベル付けを行うのではなく,脳波情報から推定された選好情報を利用するため,従来の人手による選好最適化のためのラベル作成のコストを大幅に削減することが期待されます.評価実験では,脳波に基づいた認知フィードバックを用いた選好最適化の妥当性を検証しています.大規模言語モデルの選好最適化に人間の認知情報を活用した独創的なアプローチであり,今後の発展に期待できることから,若手奨励賞にふさわしい論文であると判断しました. |
A9-6
|
事例ベース意思決定理論に基づく復号
|
|
出口 祥之 (NTT) |
|
本論文は,従来のMBR復号のドメイン適応性の課題に対処するために,事例ベース意思決定理論(CBDT)に基づく復号手法を提案しています.提案手法は,過去の類似事例を活用することで,ドメイン特有の知識や情報を反映した高品質な翻訳を実現します.実験では,CBDT復号がMAP復号を上回り,MBR復号と組み合わせることでテキスト生成のさらなる品質向上が可能なことを示しています.テキスト生成のドメイン適応という実務上重要な問題を扱っており,様々なドメインに対する適用可能性も示されており、高い汎用性と実用性を備えていることから,若手奨励賞にふさわしい論文であると判断しました。 |
Q9-6
|
大規模言語モデルを用いたシフト還元型句構造解析
|
|
中根 稜介 (科学大) |
|
本研究では,LLMでシフト還元法の動作を学習・予測することで句構造解析を行う手法を提案しています.提案手法では明示的にスタックとキューを持つことなく,解析位置を表すタグを用いることで解析済みの結果と残りの入力系列を暗黙的にスタックとキューとして扱っており,それによって予測時に常に文全体を参照することを可能としています.これによって seq2seq で直接S式を予測する手法と比較して,ドメインや入力系列長に対する頑健性を達成しています.以上の理由から,本論文は若手奨励賞にふさわしいと判断しました. |
E10-5
|
Triple-Phase Transition: 脳との関係から捉える大規模言語モデルの学習ダイナミクス
|
|
中木 裕子(阪大/NICT) |
|
本研究は,大規模言語モデル(LLMs)の学習過程における相転移現象を,ヒト脳活動との対応関係から解釈する独創的な試みを行っています.従来の研究では学習済みLLMsと脳活動の類似性が議論されてきましたが,本研究は学習過程そのものに着目し,3段階の相転移を明らかにしました.このアプローチは,LLMsの内部構造の解釈を深めるだけでなく,神経科学との新たな接点を生み出す可能性を秘めています.コミュニティにとって示唆に富む研究であり,その独創性と貢献度を高く評価し,本研究は若手奨励賞にふさわしいと判断しました. |
Q1-1
|
書き手の孤独感を予測できるか?
|
|
藤川 直也, 伊藤 和浩, 若宮 翔子, 荒牧 英治 (NAIST) |
|
【新規性】【有用性】の観点での評価 |
E1-2
|
対象言語・対象単語を選ばない汎用的な文法化度の定量化手法
|
|
永田 亮 (甲南大), 持橋 大地 (統数研), 井戸 美里, 窪田 悠介 (国語研), 高村 大也 (産総研), 川崎 義史 (東大), 大谷 直輝 (東京外大) |
|
【新規性】【有用性】の観点での評価 |
Q1-3
|
JETHICS: 日本語道徳理解度評価用データセット
|
|
竹下 昌志, ジェプカ ラファウ (北大) |
|
【将来性】の観点での評価 |
Q1-19
|
大規模画像言語モデルは物体の裏側を認識できるか?物体の見えない部分の認識を問うタスクの提案
|
|
竹中 誠 (三菱電機), 谷中 瞳 (東大) |
|
【新規性】【将来性】の観点での評価 |
Q2-3
|
AnswerCarefully: 日本語LLM安全性向上のためのデータセット
|
|
鈴木 久美 (NII), 勝又 智 (レトリバ), 児玉 貴志 (NII), 高橋 哲朗 (鹿児島大), 中山 功太, 関根 聡 (NII) |
|
【有用性】の観点での評価 |
E2-5
|
語形のベクトル化による最適な言語地図の描画
|
|
近藤 泰弘 (青学大), 持橋 大地 (統数研/国語研) |
|
【有用性】の観点での評価 |
Q2-12
|
大規模言語モデルの分布予測における常識に基づいた割合予測能力の評価
|
|
鈴木 刀磨, 片山 歩希, 郷原 聖士, 辻本 陵, 中谷 響, 林 和樹, 坂井 優介, 上垣外 英剛, 渡辺 太郎 (NAIST) |
|
【将来性】の観点での評価 |
Q2-22
|
Mitigating Social Bias in Large Language Models by Self-Correction
|
|
Panatchakorn Anantaprayoon (科学大), 金子 正弘 (MBZUAI/科学大), 岡崎 直観 (科学大/産総研/NII) |
|
【新規性】【有用性】の観点での評価 |
Q3-2
|
LLM-jp-3 VILA: 日本語マルチモーダルデータセット及び強力な日本語マルチモーダルモデルの構築
|
|
笹川 慶人 (早大/NII), 前田 航希 (科学大/NII), 杉浦 一瑳 (京大/NII), 栗田 修平 (NII), 岡崎 直観 (科学大/NII), 河原 大輔 (早大/NII) |
|
【有用性】の観点での評価 |
C3-4
|
複数タスク・複数項目に跨ったマルチモーダル自動評価手法
|
|
大井 聖也 (科学大), 金子 正弘 (MBZUAI/科学大), 岡崎 直観 (科学大/産総研/NII), 井上 中順 (科学大) |
|
【新規性】の観点での評価 |
Q3-5
|
Asagi: 合成データセットを活用した大規模日本語VLM
|
|
上原 康平, 黒瀬 優介 (東大/理研), 安道 健一郎 (理研/東大), Jiali Chen, Fan Gao, 金澤 爽太郎, 坂本 拓彌, 竹田 悠哉, Boming Yang, Xinjie Zhao (東大), 村尾 晃平, 吉田 浩 (NII), 田村 孝之 (ROIS), 合田 憲人 (ROIS/NII), 喜連川 優 (ROIS/東大), 原田 達也 (東大/理研/NII) |
|
【有用性】の観点での評価 |
Q3-12
|
大規模視覚言語モデルにおける言語タスクに対する視覚情報の影響
|
|
吉田 大城, 林 和樹, 坂井 優介, 上垣外 英剛 (NAIST), 林 克彦 (東大), 渡辺 太郎 (NAIST) |
|
【新規性】の観点での評価 |
Q4-9
|
Mixture-of-Expertsの悲観的な統合による頑健な自然言語理解
|
|
本多 右京 (サイバーエージェント), 岡 達志 (慶應大), 張 培楠, 三田 雅人 (サイバーエージェント) |
|
【新規性】【将来性】の観点での評価 |
P4-10
|
自閉スペクトラム症の眼球運動による言語モデルのファインチューニング
|
|
前田 ありさ, 大関 洋平 (東大) |
|
【有用性】【将来性】の観点での評価 |
C5-2
|
拡散モデルを用いたテキスト生成における「崩壊問題」と時刻埋め込みの影響
|
|
野坂 瞭太, 松崎 拓也 (東京理科大) |
|
【新規性】【将来性】の観点での評価 |
D5-2
|
メッセージの階層構造を把握するための parsing action がランダムではないのはなぜか?
|
|
加藤 大地, 上田 亮, 宮尾 祐介 (東大) |
|
【新規性】の観点での評価 |
Q5-2
|
訓練・推論時の不一致を解消する離散拡散テキスト生成モデル
|
|
浅田 真生 (産総研), 三輪 誠 (豊田工大/産総研) |
|
【新規性】【有用性】の観点での評価 |
P5-20
|
ReShape Attentionによる音声と言語の基盤モデルの統合
|
|
叶 高朋, 小川 厚徳, デルクロア マーク (NTT), チェン ウィリアム (CMU), 福田 りょう, 松浦 孝平, 芦原 孝典 (NTT), 渡部 晋治 (CMU) |
|
【有用性】【将来性】の観点での評価 |
Q6-18
|
FaithCAMERA: 広告文生成タスクのための忠実性を担保した評価データセットの構築
|
|
加藤 明彦, 三田 雅人, 村上 聡一朗, 本多 右京, 星野 翔, 張 培楠 (サイバーエージェント) |
|
【有用性】の観点での評価 |
Q6-20
|
whole-NWJC: 『国語研日本語ウェブコーパス』全データ
|
|
浅原 正幸 (国語研/総研大) |
|
【有用性】の観点での評価 |
B7-4
|
多言語での判例事実概要からの法的関係性のグラフ可視化
|
|
大南 英理 (NAIST), 宮西 大樹 (東大), 前田 航希 (科学大/NII), 栗田 修平 (NII) |
|
【有用性】【新規性】の観点での評価 |
A8-5
|
大規模言語モデルは日本語・中国語の状態パーフェクトを理解できるか?
|
|
盧 捷, 金 杜, 柴田 行輝, 土井 智暉, 染谷 大河, 谷中 瞳 (東大) |
|
【新規性】の観点での評価 |
B8-6
|
Sketch2Diagram: 視覚的指示を入力とするダイアグラム生成
|
|
斉藤 いつみ (東北大/理研), 吉田 遥音 (東北大), 坂口 慶祐 (東北大/理研) |
|
【将来性】の観点での評価 |
D8-6
|
日本語Full-duplex音声対話システムの試作
|
|
大橋 厚元, 飯塚 慎也, 姜 菁菁, 東中 竜一郎 (名大) |
|
【将来性】の観点での評価 |
P8-15
|
逆プロンプトを用いたコールドスタート推薦
|
|
草野 元紀 (NEC) |
|
【有用性】の観点での評価 |
B9-2
|
JMED-DICT: 大規模医療用語辞書の構築
|
|
永井 宥之, 西山 智弘, 大槻 優佳, 藤牧 貴子, 川端 京子, 工藤 紀子 (NAIST), 山崎 由佳, 白石 暖哉 (京大), 梶原 智之 (愛媛大), 進藤 裕之 (MatBrain), 河添 悦昌, 今井 健 (東大), 矢田 竣太郎 (NAIST/筑波大), 若宮 翔子, 荒牧 英治 (NAIST) |
|
【有用性】【将来性】の観点での評価 |
C9-4
|
VDocRAG: 視覚的文書に対する検索拡張生成
|
|
田中 涼太 (NTT/東北大), 壹岐 太一, 長谷川 拓, 西田 京介, 齋藤 邦子 (NTT), 鈴木 潤 (東北大) |
|
【新規性】【有用性】の観点での評価 |
Q9-13
|
視覚情報による曖昧性解消コーパスの検討
|
|
李 相明 (NAIST/理研), 河野 誠也 (理研/NAIST), 吉野 幸一郎 (科学大/理研/NAIST) |
|
【新規性】【将来性】の観点での評価 |
P9-18
|
バックトラッキングを活用したマルチエージェントシステムによる複数制約充足プランニング
|
|
守屋 彰二 (SB Intuitions/東北大), 大萩 雅也 (SB Intuitions) |
|
【新規性】【将来性】の観点での評価 |
B10-1
|
不均衡最適輸送を用いた意味変化検出
|
|
岸野 稜, 山際 宏明 (京大), 永田 亮 (甲南大/理研), 横井 祥 (国語研/東北大/理研), 下平 英寿 (京大/理研) |
|
【新規性】【有用性】の観点での評価 |
E10-2
|
CCGによる日本語脳波データのモデリング
|
|
磯野 真之介 (東大/DC2), 梶川 康平 (東大), 杉本 侑嗣 (阪大), 浅原 正幸 (国語研), 大関 洋平 (東大) |
|
【新規性】の観点での評価 |
P10-4
|
リアルタイム音声対話システムのための応答タイミングと短文応答の同時予測
|
|
大中 緋慧 (NAIST/理研), 河野 誠也 (理研/NAIST), 大西 一誉 (NAIST/理研), 吉野 幸一郎 (NAIST/理研/科学大) |
|
【将来性】の観点での評価 |