ニュース

以下の論文が言語処理学会第32回年次大会優秀賞を受賞しました。 (2026/3)

  • 西田 典起, Fei Cheng, 松本 裕治: 時間とともに変化する未整理な外部知識の継続的な整理と長文コンテキストRAGへの活用

Zhang君、樽谷君、Yuさんが以下の論文で言語処理学会第32回年次大会若手奨励賞を受賞しました。 (2026/3)

  • Zelin Zhang, Hiroki Tarutani, Toshiaki Nakazawa, Fei Cheng, Chenhui Chu: Claim-Wise Interaction Modeling with Hybrid Context and Domain-Adaptive Dictionary for Japanese Patent Retrieval
  • Yahan Yu, Chenhui Chu: Lightweight Progressive LoRA for Multimodal Continual Instruction Tuning

以下の論文が言語処理学会第32回年次大会委員特別賞を受賞しました。 (2026/3)

  • Yang Liu, 金子 正弘, Chenhui Chu: 大規模言語モデルと世界各国の価値観とのアライメント
  • 西田 典起, Rumana Ferdous Munne, Shanshan Liu, 徳永 なるみ, 山縣 友紀, Fei Cheng, 古崎 晃司, 松本 裕治: グラフベースRAGの知識構造化に関するモジュール別検討

黒橋禎夫教授最終講義のご案内 (2026/3/16)

  • 2026/2/27: オンライン配信の案内を追加しました

黒橋教授がACL Fellows 2025に選出されました。

以下の論文がAAAI 2026 AI Alignment Trackの最優秀論文賞 を受賞しました。

  • Yang Liu, Masahiro Kaneko, Chenhui Chu: On the Alignment of Large Language Models with Global Human Opinion

EACL 2026 (2026/3) で以下の論文発表を行います。

  • Chengzhi Zhong, Fei Cheng, Qianying Liu, Yugo Murawaki, Chenhui Chu, Sadao Kurohashi: Language Lives in Sparse Dimensions: Toward Interpretable and Efficient Multilingual Control for Large Language Models
  • Shanshan Liu, Noriki Nishida, Fei Cheng, Narumi Tokunaga, Rumana Ferdous Munne, Yuki Yamagata, Kouji Kozaki, Takehito Utsuro, Yuji Matsumoto. Better Generalizing to Unseen Concepts: An Evaluation Framework and An LLM-Based Auto-Labeled Pipeline for Biomedical Concept Recognition
  • Jivnesh Sandhan, Fei Cheng, Tushar Sandhan, and Yugo Murawaki. Deterministic Personality Editing of Large Language Models Using Adversarial Conversational History (Findings)

AAAI 2026 (2026/1) で以下の論文発表を行います。

  • Yang Liu, Masahiro Kaneko, Chenhui Chu:
    On the Alignment of Large Language Models with Global Human Opinion

AACL 2025 (2025/12) で以下の発表を行います。

  • 黒橋教授が基調講演を行います。
  • 博士後期課程の清水がStudent Research Workshopを主催します。
  • 次の論文発表を行います。
    • Kunal Kingkar Das, Manoj Balaji Jagadeeshan, Nallani Chakravartula Sahith, Jivnesh Sandhan, and Pawan Goyal: Still Not There: Can LLMs Outperform Smaller Task-Specific Seq2Seq Models on the Poetry-to-Prose Conversion Task?
    • Wan Jou She, Lis Pereira, Fei Cheng, Sakiko Yahata, Panote Siriaraya, Eiji Aramaki. EmplifAI: a Fine-grained Dataset for Japanese Empathetic Medical Dialogues in 28 Emotion Labels

研究の概要

本研究室では,言語の仕組み,それを用いたコミュニケーションの仕組みを計算機が扱える正確さで解明するという理論的研究と,それによって情報検索,自動翻訳,マンマシンインタフェース等をより高度化して人間の活動を支援するという工学的研究を行っています.(→詳細)

知識に基づく構造的言語処理の確立と知識インフラの構築

TSUBAKI.png

テキストは,専門家によるデータの分析結果や解釈,ステークホルダーの批判・意見,種々の手続きやノウハウなどが表出されたものであり,人間の知識表現の根幹をなすものです.知識に基づく頑健で高精度な構造的言語処理を実現するとともに,これによって様々なテキストの横断的な関連付け,検索,比較を可能とする知識インフラの構築を目指しています.また,注釈付与コーパス,辞書,言語解析システムの公開によって研究コミュニティによる一層の研究の加速を実現するとともに,これらの研究成果を企業のカスタマーセンター業務等に適用する実験を始めています.このようなテーマで,2013年10月から5.5年間のCRESTプロジェクトを推進しています.

自動翻訳の高度化に関する研究

EBMT.png

計算機による自動翻訳をより人間的な翻訳に近づけるために,言葉の理解・パラフレーズを通した翻訳や,大量の用例を利用した次世代翻訳方式の研究を行っています.JSTと協力し、日中科学技術文献の自動翻訳実用化プロジェクトに取り組むとともに,クラウドソーシングなどを利用した対訳コーパスの構築、自動翻訳の利用による多言語ブログからの意見集約などの研究を展開しています.

言語理解の基礎的研究

計算機による言語理解を実現するためには,計算機に常識・世界知識を与える必要があります.10年前にはこれは非常に難しい問題でしたが,近年の計算機パワー,計算機ネットワークの飛躍的進展によって計算機が超大規模テキストを取り扱えるようになり,そこから常識を自動獲得することが少しずつ可能になってきました.我々の研究室でも,クラスタ計算機を使ってWebから収集した100億文超の大規模テキストを処理することにより,同義語・類義語知識、述語項構造パターン、事態間関係知識等の自動学習を行っています.さらに,このような知識を利用することにより,計算機による文章理解,すなわち文章中の語/句/文間の関係性の解析について研究を進めています.

外部からの学生の受け入れのポリシー

黒橋教授は新規の学生の研究指導を行っていません。村脇准教授またはChu准教授が研究指導を行う体制です。

修士課程

博士課程

アクセス

  • 住所/場所
    • 〒606-8501 京都市左京区吉田本町
    • 京都大学 吉田本部キャンパス 総合研究9号館(旧工学部3号館) 南棟 2階 S208
  • 連絡先
    • Tel/Fax:(075)753-5962
    • Email: contact あっと nlp.ist.i.kyoto-u.ac.jp

関連サイト


添付ファイル: filedaimonzi_20241127.jpg 1832件 [詳細] filetrip_20230913.jpg 4944件 [詳細] filemanshuin_20211117.jpg 678件 [詳細] filecovid-19_banner.ja.png 183件 [詳細] fileTSUBAKI.png 3652件 [詳細] fileEBMT.png 3898件 [詳細]

トップ   編集 凍結 差分 バックアップ 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS