
| 講師 | 電話(huà): |
| 電子郵件:[email protected] |
教育背景
博士(計(jì)算機(jī)科學(xué)與技術(shù)),2021.9-2025 .6年, 學(xué)校 倫敦大學(xué)瑪麗女皇學(xué)院
訪(fǎng)學(xué)博士 ,2024年,學(xué)校 劍橋大學(xué)
碩士(環(huán)境工程),2016.9-2019.6年,學(xué)校 中國(guó)科學(xué)院大學(xué)
研究領(lǐng)域
人工智能、深度學(xué)習(xí)、多模態(tài)交互、具身智能大模型
簡(jiǎn)介
上海對(duì)外經(jīng)貿(mào)大學(xué)統(tǒng)計(jì)與數(shù)據(jù)科學(xué)學(xué)院講師,博士畢業(yè)于倫敦大學(xué)瑪麗皇后學(xué)院, Centre for Digital Music課題組,博士導(dǎo)師為 Joshua Reiss (Enterprise Fellow of the Royal Academy of Engineering, AES Fellow)、Lin Wang、Huy Phan (Meta Reality Lab) 和Lin Wang,合作導(dǎo)師為 Bj?rn Schuller (帝國(guó)理工學(xué)院,IEEE Fellow)。在讀期間,與劍橋大學(xué)、牛津大學(xué)、帝國(guó)理工學(xué)院、愛(ài)丁堡大學(xué)、謝菲爾德大學(xué)、新加坡南洋理工大學(xué)、上海交通大學(xué)等團(tuán)隊(duì)開(kāi)展合作研究, 獲得國(guó)際智能語(yǔ)音情感挑戰(zhàn)賽第一名。研究領(lǐng)域聚焦于多模態(tài)人工智能, 圍繞語(yǔ)音、文本、視頻等多模態(tài)信息的統(tǒng)一表征、跨模態(tài)對(duì)齊、融合建模、交互機(jī)制與生成學(xué)習(xí)展開(kāi),致力于構(gòu)建能夠在真實(shí)環(huán)境中理解人類(lèi)情感與行為、并實(shí)現(xiàn)自然人機(jī)互動(dòng)的智能系統(tǒng)。主要研究方向包括:情感計(jì)算、具身大模型、AIGC、多模態(tài)智能體、早期健康診斷、智能座艙與人機(jī)交互系統(tǒng)等。已發(fā)表期刊及會(huì)議論文15篇,其中第一作者論文11篇(含2篇共同第一作者),包括多篇中科院頂會(huì)與頂刊論文。曾參與北京人形機(jī)器人創(chuàng)新中心具身智能相關(guān)工作,受到財(cái)聯(lián)社、量子位、機(jī)器之心等主流科技媒體報(bào)道。長(zhǎng)期招聘科研實(shí)習(xí)生、本科、碩士、博士等,歡迎有興趣同學(xué)通過(guò)電子郵件與我聯(lián)系,與國(guó)內(nèi)外知名高校、實(shí)驗(yàn)室及企業(yè)共同合作,期待感興趣同學(xué)郵件聯(lián)系,多多指導(dǎo)。
部分發(fā)表論文
Jiachen Luo, Huy Phan, Lin Wang, Joshua Reiss*. “Bimodal connection attention fusion for speech emotion recognition”, IEEE Transactions Multimedia, 2025. (accepted)
Jiachen Luo, Huy Phan, Lin Wang, Joshua Reiss*. “Enhanced speech emotion recognition incorporating speaker-sensitive interactions in conversations”, IEEE International Conference on Multimedia and Expo (ICME), pp. 1-6, 2024. (Oral)
Jiachen Luo, Huy Phan, Joshua Reiss*. “Cross-modal fusion techniques for utterance-level emotion recognition from text and speech videos”, IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP), pp. 1-5, 2023.
Jiachen Luo, Huy Phan, Lin Wang, Joshua Reiss*. “Mutual cross attention in dyadic fusion networks for audio-video emotion recognition”, Affective Computing Intelligent Interaction Workshop (ACIIW), pp. 1-7, 2023. (Spotlight)
Mingjie Chen, Hezhao Zhang, Yuanchao Li, Jiachen Luo, Wen Wu, Ziyang Ma, Peter Bell, Catherine Lai, Joshua Reiss, Lin Wang, Philip C. Woodland, Xie Chen, Huy Phan, Thomas Hain*. “1st Place Solution to Odyssey Emotion Recognition Challenge Task1: Tackling Class Imbalance Problem”, The Speaker and Language Recognition Workshop, Emotion Challenge, pp. 1-6, 2024. (rank the 1st)
獎(jiǎng)項(xiàng)情況
2023 ACII Travel Grant Recipient
2023 Odyssey Emotion Recognition Challenge Task1 (1st Place Solution)
2023 Multimodal Fusion Workshop Fund Recipient
2019 國(guó)家獎(jiǎng)學(xué)金
2016 校級(jí)優(yōu)秀畢業(yè)論文
其他
2025倫敦大學(xué)瑪麗皇后學(xué)院,助教,Neural Networks and Deep Learning
- 2025倫敦大學(xué)瑪麗皇后學(xué)院,助教,Interactive System Design