||
我们非常欢迎来自多个学科的专家学者广泛参与此次专刊的征文与交流,特别是来自医学、艺术、和人文社科领域对计算机听觉技术感兴趣的学术界和工业界的朋友参。同时,我们也欢迎来自传统理科(如数学、物理学)的学者可以从基础科学研究的角度提出对计算机听觉的理解。同时,我们此次与中国计算机听觉领域的顶级盛会Conference on Sound and Music Technology(CSMT)首次合作,该会议由复旦大学李伟教授于2013年发起,已经吸引了包括清华大学、北京大学、美国斯坦福大学、新加坡国立大学、日本东京大学等国内外顶尖大学的参与,并持续引起包括学界和业界的关注。我们希望此次专刊可以与CSMT互相支持、共同成长,持续推进计算机听觉领域的学科发展与人才培养。
『 该 研 究 领 域 的 重 要 性 』
我们此次专刊的标题为『以人为中心的计算机听觉:声音,音乐与健康』。计算机听觉是近20年发展起来的一门新兴交叉学科,涵盖理、工、医、艺术等多个学科领域,其目标以前沿的声学信号处理和机器学习/深度学习技术为基础,赋能计算机以接近甚至超过人类听觉极限来感知客观世界。在「以人为中心的人工智能」时代,计算机听觉相关技术正发挥着越来越为重要的作用,尤其在智慧城市、绿色生态、数字医学等领域有着广泛的应用价值与市场前景。然而,相较于计算机视觉,计算机听觉依然存在基础理论不够完备、相关研究缺乏系统性、储备人才严重不足等问题。为此,我们特开设此专刊征稿,力求向更为广泛的受众传播计算机听觉领域一线专家的科研成果,促进计算机听觉向多学科交叉拓展,寻求合作与共同发展。
『 该 研 究 领 域 的 前 沿 趋 势 』
国内的学界和业界都已关注到计算机听觉领域的巨大潜力,然而由于前面提到的困难与局限,与计算机视觉相比,其发展还是较为薄弱。目前国内的研究为代表性的主要集中在声音场景识别、人工智能音乐和医学健康等方向。未来计算机听觉的发展趋势是夯实基础、完善学科发展和人才培养体系,并不断与多学科交叉融合,寻求合作创新与共谋发展。
『 征 稿 信 息 』
我们欢迎来自不同领域的专家学者踊跃投稿。接受的论文类型包括原创研究(Original Research Article)、综述/微型综述(Review/Mini-Review Article)、前瞻/观点(Perspective/Opinion)以及包含最新原创性实验的通讯短文(Short Communications)。
本专刊文稿应具有科学性、创新性,通过完全公开、公正、严格的同行评审后在线发表。文章一经上线,即可被引用。
此前沿专刊发布在:
Frontiers in Physics
( IF: 3.561 | CiteScore: 3.1 )
Frontiers in Psychology
( IF: 2.990 | CiteScore: 3.5 )
Frontiers in Digital Health(新晋期刊)
Health Informatics
Frontiers in Computer Science(新晋期刊)
Human-Media Interaction
此专刊仍接收投稿,截稿时间:
Manuscript - 2022 年 02 月 11 日
专刊详细信息及投稿方式,点击链接 https://ddl.ink/HCQ 了解更多详情。
本专刊与第九届全国声音与音乐技术会议(CSMT2021)达成合作,具体详情请查看:http://www.csmcw-csmt.cn
『 客 座 主 编 团 队 』
钱昆,北京理工大学,教授、博导 钱昆,北京理工大学医学技术学院教授、博导,脑健康工程方向责任教授,2021年入选“北理工特立青年学者”支持计划,博士毕业于德国慕尼黑工业大学。2019年至2021年于日本东京大学从事人工智能医学相关领域研究工作,期间入选全球著名青年科学家基金——“日本学术振兴会外国人特别研究员”项目(成功率:10.6%),累计发表高水平学术论文70余篇,其中以第一作者/通讯作者身份发表SCI收录论文18篇,包括IEEE Signal Processing Magazine、IEEE IoTJ、IEEE T-ITS、IEEE J-BHI、IEEE T-ASE、IEEE T-BME、ABME、JASA 等领域内国际顶级期刊。钱博士现为IEEE高级会员,IEEE Transactions on Affective Computing(JCR Q1,IF-2020: 10.506)、Frontiers in Digital Health、BIO Integration 等期刊编委,法国巴黎丝路商学院客座教授,中国留德学者计算机学会人工智能与大数据专家委员会专家委员,长期担任数十种领域内顶尖/权威期刊与国际会议审稿人。 |
George Fazekas,英国伦敦大学玛丽女王大学,Senior Lecturer (Associate Professor) Dr George Fazekas is a Senior Lecturer (Associate Prof.) in Digital Media at the Centre for Digital Music, Queen Mary, University of London (QMUL). He holds a BSc, MSc and PhD degree in Electrical Engineering. He is an investigator of UKRI's £6.5M Centre for Doctoral Training in Artificial Intelligence and Music (AIM CDT). He published over 150 academic papers in the fields of Music Information Retrieval, Semantic Web, Ontologies, Deep Learning and Semantic Audio, including an award winning paper on transfer learning. Fazekas has participated in research and knowledge transfer projects as researcher, developer and at management level. He was QMUL's Principal Investigator on the H2020 Audio Commons project (grant no. 688382, EUR 2.9M, 2016-2019) which received best score by expert reviewers of the European Commission, and Co-I of additional research projects worth over £230K, including the JISC funded Shared Open Vocabularies for Audio Research and Retrieval. He worked with BBC R&D to create mood-based music recommendation systems in the nationally funded Making Musical Mood Metadata project. He was general chair of ACM’s Audio Mostly 2017 and papers co-chair and organising committee leader of the AES 53rd International Conference on Semantic Audio. He is regular reviewer for IEEE Transactions, JNMR and others. He is a member of the IEEE, ACM, BCS and AES and received the Citation Award of the AES for his work on the Semantic Audio Analysis Technical Committee. |
李圣辰,西交利物浦大学,Assistant Professor Graduated from world-famous Centre for Digital Music (C4DM), Queen Mary University of London (QMUL), Shengchen Li has focused on machine listening techniques on various types of signals including music, acoustic signal and biomedical signal. Being a pianist in young age, Shengchen has a special interest on computer music research including but not limited to automatic music generation, computational musicology and objective evaluation of piano performance. His fellow students has named among the winner / top-ranked teams of IEEE AASP Data Challenge on Detection and Classification of Acoustic Scenes and Events (DCASE), which is a competitive and top-ranked data challenge in acoustic signal processing society, in the year of 2018-2021. |
李子晋,中央音乐学院,副教授 李子晋,中央音乐学院音乐人工智能与音乐信息科技系副教授,音乐声学博士,麦吉尔大学国家公派访问学者,加拿大音乐传媒及科技跨学科研究中心研究员。研究方向为音乐声学、音乐数据库构建、新乐器设计、音乐科技创新理论。组织NIME2021、IEEE MIPR AIArt、IEMC、CSMT等学术活动中国人工智能学会艺术与人工智能专委会秘书长,中国高校影视学会音乐与声音专业委员会理事,中国乐器协会未来音乐科技专委会副会长,中国演艺设备技术协会乐器专业委员会委员。 |
Björn W. Schuller,英国伦敦帝国理工学院,人工智能终身教授,IEEE Fellow Bjoern W. Schuller(博雅恩)教授,IEEE Fellow,ISCA Fellow,英国帝国理工学院人工智能方向终身教授,德国奥格斯堡大学终身讲席教授。博雅恩教授长期从事计算机听觉与情感计算领域研究,曾担任IEEE Transactions on Affective Computing主编,累计发表学术论文1000余篇,谷歌学术引用量超过4万(H指数90),为计算机听觉和情感计算领域国际顶尖科学家,两次荣获“世界经济论坛——全球40岁以下杰出科学家”称号。 |
「 客座主编对于前沿专刊模式的看法 」
Frontiers作为全球著名的学术出版集团,举办前沿专刊这种形式是很有利于针对某一特定课题的、多学科交叉的学者进行交流与探讨。我们非常支持这种论文专刊模式,也希望Frontiers可以加大力度在宣传服务方面做更多的工作,也希望可以考虑融入线上结合线下的模式举办一些针对专刊的特邀报告来进行宣传,这样同时也可以给相关领域的学者们提供一个学习与交流的平台,从而紧跟前沿技术发展。
原文内容整理自钱昆教授的文字采访
点击查看 Frontiers 前沿专刊 案例:
前沿专刊(Research Topic),是 Frontiers 赋能学术工作者的创新方式之一:前沿专刊由客座主编确定某领域内的研究方向,接收相关领域作者的投稿,最终以文章合辑的形式发表在期刊正刊。
成为客座主编的优势在于:
享受开放获取出版优势,快速提升您的科研成果的影响力;
推动本领域的科研进展,领导更积极的学术讨论;
加强您与本领域科研同行的合作与交流;
丰富学术履历,提升您与合作者的学术影响力。
作为客座主编,在前沿专刊正式建立之前需要完成三个步骤:
确定专刊主题;
邀请1-3位专家(需至少包含一位国际专家)作为共同客座主编组织专刊;
建议潜在的作者名单。
如何成为客座主编?
扫描下方二维码或点击链接,用 1 分钟 填写表单,如您符合要求,Frontiers 相应领域的出版总监将与您 1 对 1 交流。
https://wj.qq.com/s2/6382246/9363/
Frontiers 总部位于瑞士,是全球领先的开放获取(Open Access)出版商,致力于使科学在全球范围内更加开放。关于 Frontiers 的更多详情,访问我们的官方网站 https://www.frontiersin.org/
扫码关注我们,成为开放科学的推动者!欢迎在公众号后台与我们沟通!
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-27 12:17
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社