大和大学 大志を、まとえ。

検索したいワードをいれて検索してください

またはサイトマップもご覧ください

TEACHERS

教員の紹介
小林 彰夫

氏名 小林 彰夫
職位 教授
学部 情報学部
学科・専攻 情報学科
専門・研究分野 音声言語処理・自然言語処理
研究キーワード 音声認識,音声合成,機械翻訳,深層学習
学部担当科目 基礎数学I,基礎数学II,基礎演習,線形代数,確率統計
関連リンク
学位 博士(工学)
実務経験
現在の研究内容・課題
  • 「オンライン環境における健聴者・聴覚障害者間の意思疎通を支援する音声言語基盤技術の研究」(科学研究費助成事業 基盤研究B 代表 2023〜2025年度)
    新型コロナ感染症の流行下、大学では多くの講義でオンラインコミュニケーションが増加した。その一方で、聴覚障害者と健聴者とのオンラインコミュニケーションにおける課題が明らかとなった。例えば、意思疎通を図るためのチャットを用いた筆談は、障害者や健聴者にとっては煩雑で時間がかかる作業であり、ストレスフルなコミュニケーション手段である。また、通信品質の低い音声は健聴者・障害者ともに聞き取りが困難であり、意思疎通に支障をきたすこともある。そこで本研究では、健聴者と障害者の双方に視覚情報(文字)および聴覚情報(音声)の両者を提示することにより、ストレスフリーなオンラインコミュニケーションを実現する、音声言語処理技術に基づく拡張型音声コミュニケーションアシスタントを研究する。本研究の成果により、健聴者と聴覚障害者のオンラインコミュニケーションに新たなユーザー体験を提供し、ひいては障害者の社会進出を支援することが可能となる。
主な研究業績 査読付き論文/国際会議プロシーディングス (2020年以降のみ)

  1. Comparative Evaluation of Diverse Features in Fluency Evaluation of Spontaneous Speech, H. Deng, T. Utsuro, Akio Kobayashi, H. Nishizaki, IEICE Trans. Information and Systems E106-D(1) pp. 36–45 2023.
  2. Automatic Selection of Appropriate Data Augmentation Operation for Acoustic Scene Classification Model Training, T. Sugiura, A. Kobayashi, T. Utsuro, H. Nishizaki, pp. 355–358 2022.
  3. Neural Networks Using Multiplicative Features Based on Second-Order Statistics for Acoustic;Speech Applications, A. Kobayashi, 2022 Asia Conference on Advanced Robotics, Automation, and Control Engineering (ARACE) pp. 121–126 2022.
  4. End-to-End Speech to Braille Translation in Japanese, A. Kobayashi, J. Onishi, H. Nishizaki, N. Kitaoka, 2022 IEEE International Conference on Consumer Electronics (ICCE), 2022
  5. Comparison Of Static and Time-Sequential Features in Automatic Fluency Detection of Spontaneous Speech, H. Deng, T. Utsuro, A. Kobayashi, H. Nishizaki, 24th Conference of the Oriental COCOSDA , pp. 158–163 2021.
  6. Corpus Design and Automatic Speech Recognition for Deaf and Hard-of-Hearing People, A. Kobayashi, K. Yasu, H. Nishizaki, N. Kitaoka, 2021 IEEE 10th Global Conference on Consumer Electronics (GCCE), 2021.
  7. Audio Synthesis-based Data Augmentation Considering Audio Event Class, T. Sugiura, A. Kobayashi, T. Utsuro, H. Nishizaki 2021 IEEE 10th Global Conference on Consumer Electronics (GCCE), 2021.
  8. ExKaldi-RT: A Real-Time Automatic Speech Recognition Extension Toolkit of Kaldi, Y Wang, C.-S. Leow, A. Kobayashi, T. Utsuro, H. Nishizaki, 2021 IEEE 10th Global Conference on Consumer Electronics (GCCE) pp. 346–350, 2021.
  9. Language and Speaker-Independent Feature Transformation for End-to-End Multilingual Speech Recognition, T. Hayakawa, C.-S. Leow, A. Kobayashi, T. Utsuro, H. Nishizaki, Interspeech 2021 pp. 2431–2435 2021.
  10. Voice Activity Detection for Live Speech of Baseball Game Based on Tandem Connection with Speech/Noise Separation Model, Y. Nonaka, C.-S. Leow, A. Kobayashi, T. Utsuro, H. Nishizaki, Interspeech 2021, pp. 351–355, 2021.
  11. Speech Enhancement for Demodulated Signals under Multipath Fading Communication Channels, A. Kobayashi, 2020 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC) pp. 460–464 2020.
  12. Spoken Dialog Training System for Customer Service Improvement, Y. Sano, C.-S. Leow, S. Iida, T. Utsuro, J. Hoshino, A. Kobayashi, H. Nishizaki, 2020 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC) pp. 403–408, 2020.
  13. ExKaldi: A Python-Based Extension Tool of Kaldi, Y. Wang, C.-S. Leow, H. Nishizaki, A. Kobayashi, T. Utsuro, 2020 IEEE 9th Global Conference on Consumer Electronics, pp. 470–473, 2020.
  14. Integrating Disfluency-based and Prosodic Features with Acoustics in Automatic Fluency Evaluation of Spontaneous Speech, H. Deng, Y. Lin, T. Utsuro, A. Kobayashi, H. Nishizaki, J. Hoshino, Proc. the 12th Language Resources and Evaluation Conference, pp. 6429–6437, 2020.
  15. Automatic Fluency Evaluation of Spontaneous Speech Using Disfluency-Based Features, H. Deng, Y. Lin, T. Utsuro, A. Kobayashi, H. Nishizaki, J. Hoshino, Proc. ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 9239–9243, 2020."
主な所属学会 IEEE, 電子情報通信学会,日本音響学会,情報処理学会,映像情報メディア学会