ニュース

黒橋禎夫教授最終講義のご案内 (2026/3/16)

黒橋教授がACL Fellows 2025に選出されました。

AAAI 2026 (2026/1) で以下の論文発表を行います。

  • Yang Liu, Masahiro Kaneko, Chenhui Chu:
    On the Alignment of Large Language Models with Global Human Opinion

AACL 2025 (2025/12) で以下の発表を行います。

  • 黒橋教授が基調講演を行います。
  • 博士後期課程の清水がStudent Research Workshopを主催します。
  • 次の論文発表を行います。
    • Kunal Kingkar Das, Manoj Balaji Jagadeeshan, Nallani Chakravartula Sahith, Jivnesh Sandhan, and Pawan Goyal: Still Not There: Can LLMs Outperform Smaller Task-Specific Seq2Seq Models on the Poetry-to-Prose Conversion Task?
    • Wan Jou She, Lis Pereira, Fei Cheng, Sakiko Yahata, Panote Siriaraya, Eiji Aramaki. EmplifAI: a Fine-grained Dataset for Japanese Empathetic Medical Dialogues in 28 Emotion Labels

EMNLP 2025 (2025/11)で以下の論文発表を行います。

  • Zhengdong Yang, Zhen Wan, Sheng Li, Chao-Han Huck Yang, Chenhui Chu:
    CoVoGER: A Multilingual Multitask Benchmark for Speech-to-text Generative Error Correction with Large Language Models
  • Yoshiki Takenami, Yin Jou Huang, Yugo Murawaki, Chenhui Chu:
    How Does Cognitive Bias Affect Large Language Models? A Case Study on the Anchoring Effect in Price Negotiation Simulations (Findings)
  • Yang Liu, Chenhui Chu:
    Do LLMs Align Human Values Regarding Social Biases? Judging and Explaining Social Biases with LLMs (Findings)
  • Jivnesh Sandhan, Fei Cheng, Tushar Sandhan, and Yugo Murawaki:
    From Disney-World to Reality: A Context-Dependent Testbed for Personality Assessment of Large Language Models (Findings)
  • Ruiyi Yan and Yugo Murawaki:
    Addressing Tokenization Inconsistency in Steganography and Watermarking Based on Large Language Models.
  • Yin Jou Huang, Rafik Hadfi:
    Beyond Self-Reports: Multi-Observer Agents for Personality Assessment in Large Language Models (Findings)
  • Sakiko Yahata, Zhen Wan, Fei Cheng, Sadao Kurohashi, Hisahiko Sato, Ryozo Nagai: Causal Tree Extraction from Medical Case Reports:
    A Novel Task for Experts-like Text Comprehension
  • Kazuma Kobayashi, Zhen Wan, Fei Cheng, Yuma Tsuta, Xin Zhao, Junfeng Jiang, Jiahao Huang, Zhiyi Huang, Yusuke Oda, Rio Yokota, Yuki Arase, Daisuke Kawahara, Akiko Aizawa, Sadao Kurohashi:
    Leveraging High-Resource English Corpora for Cross-lingual Domain Adaptation in Low-Resource Japanese Medicine via Continued Pre-training (Findings)

研究の概要

本研究室では,言語の仕組み,それを用いたコミュニケーションの仕組みを計算機が扱える正確さで解明するという理論的研究と,それによって情報検索,自動翻訳,マンマシンインタフェース等をより高度化して人間の活動を支援するという工学的研究を行っています.(→詳細)

知識に基づく構造的言語処理の確立と知識インフラの構築

TSUBAKI.png

テキストは,専門家によるデータの分析結果や解釈,ステークホルダーの批判・意見,種々の手続きやノウハウなどが表出されたものであり,人間の知識表現の根幹をなすものです.知識に基づく頑健で高精度な構造的言語処理を実現するとともに,これによって様々なテキストの横断的な関連付け,検索,比較を可能とする知識インフラの構築を目指しています.また,注釈付与コーパス,辞書,言語解析システムの公開によって研究コミュニティによる一層の研究の加速を実現するとともに,これらの研究成果を企業のカスタマーセンター業務等に適用する実験を始めています.このようなテーマで,2013年10月から5.5年間のCRESTプロジェクトを推進しています.

自動翻訳の高度化に関する研究

EBMT.png

計算機による自動翻訳をより人間的な翻訳に近づけるために,言葉の理解・パラフレーズを通した翻訳や,大量の用例を利用した次世代翻訳方式の研究を行っています.JSTと協力し、日中科学技術文献の自動翻訳実用化プロジェクトに取り組むとともに,クラウドソーシングなどを利用した対訳コーパスの構築、自動翻訳の利用による多言語ブログからの意見集約などの研究を展開しています.

言語理解の基礎的研究

計算機による言語理解を実現するためには,計算機に常識・世界知識を与える必要があります.10年前にはこれは非常に難しい問題でしたが,近年の計算機パワー,計算機ネットワークの飛躍的進展によって計算機が超大規模テキストを取り扱えるようになり,そこから常識を自動獲得することが少しずつ可能になってきました.我々の研究室でも,クラスタ計算機を使ってWebから収集した100億文超の大規模テキストを処理することにより,同義語・類義語知識、述語項構造パターン、事態間関係知識等の自動学習を行っています.さらに,このような知識を利用することにより,計算機による文章理解,すなわち文章中の語/句/文間の関係性の解析について研究を進めています.

外部からの学生の受け入れのポリシー

黒橋教授は新規の学生の研究指導を行っていません。村脇准教授またはChu准教授が研究指導を行う体制です。

修士課程

博士課程

アクセス

  • 住所/場所
    • 〒606-8501 京都市左京区吉田本町
    • 京都大学 吉田本部キャンパス 総合研究9号館(旧工学部3号館) 南棟 2階 S208
  • 連絡先
    • Tel/Fax:(075)753-5962
    • Email: contact あっと nlp.ist.i.kyoto-u.ac.jp

関連サイト


添付ファイル: filedaimonzi_20241127.jpg 1723件 [詳細] filetrip_20230913.jpg 4850件 [詳細] filemanshuin_20211117.jpg 643件 [詳細] filecovid-19_banner.ja.png 169件 [詳細] fileTSUBAKI.png 3458件 [詳細] fileEBMT.png 3719件 [詳細]

トップ   編集 凍結 差分 バックアップ 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS