Navigation

    Gpushare.com

    • Register
    • Login
    • Search
    • Popular
    • Categories
    • Recent
    • Tags

    CEA 嵌入式人工智能实验室招募博士生

    校招社招
    1
    1
    20
    Loading More Posts
    • Oldest to Newest
    • Newest to Oldest
    • Most Votes
    Reply
    • Reply as topic
    Log in to reply
    This topic has been deleted. Only users with topic management privileges can see it.
    • 153****2211
      153****2211 last edited by

      公司简介

      CEA(法国原子能和可再生能源委员会)是一个公共研究机构。它在研究、开发和创新领域发挥着重要作用。CEA有四个任务:安全与防御、核能(裂变和聚变)、工业技术研究和基础研究。CEA 拥有16000名员工,包括技术人员、工程师、研究人员和支持人员,参与了与学术和工业伙伴合作的众多研究项目。

      在CEA专注于工业技术研究的部分,LIST研究所专注于智能数字系统。该研究所拥有创新文化,并以向工业伙伴转让这些技术为使命。DSCIN部门专门研究用于人工智能(AI)、高性能计算(HPC)和网络安全应用的复杂数字和嵌入式系统。LIAE实验室的重点是嵌入式人工智能,感知与多模态传感器(包括视觉传感器)相结合。该实验室位于巴黎地区(Palaiseau)。

      工作职责

      该博士职位目标是研究基于注意力的新模型(如 transformers)对语音增强的贡献,并提出一个系统化的程序,以充分降低此类算法的复杂性,使其能够嵌入到便携式设备上,同时仍能满足通过对病人进行听力测试而确定的质量估计标准。

      入选者将探索诸如迁移学习和知识蒸馏的方法,以减少模型的复杂性,同时保持性能。以及探索在模型中强制执行稀疏性的方法,以促进有效的剪枝[6],并进行基于量化[7]的初步实验,以减少整体模型的复杂性。后面这些方法会带来性能下降。还需要分析复杂性降低和性能下降之间的关系,以便在信号/线索估计性能下定义复杂性降低方法。

      工作的目的是探索基于人工智能的新方法,以改善ANSD患者的听力。涉及以下三个要点:

      人工智能在听力方面的应用是一个相当新的课题:这项研究涉及到对目前使用的各种类型的网络的研究,探索新出现的网络的相关性,如基于注意力机制的 transformer,以及迁移学习的相关性

      考虑到应用于ANSD的特殊情况,它不同于增强和源分离[5]

      为了尊重嵌入设计的限制,如低功耗、延迟、小内存和计算尺寸,这项工作将探索不同的神经网络压缩技术的相关性,如量化、知识蒸馏或其他参数减少方法

      任职要求

      工程师或大学毕业生,无不良记录
      有良好的计算机科学知识,包括音频信号处理和电子学方面的知识和人工智能的学习经验。
      掌握计算机开发(C/C++)
      具有良好的法语和英语口语和写作能力

      申请方式

      截止日期:2023年6月30日
      合同期限:3年
      申请方式:https://www.hipeac.net/jobs/13723/neural-networks-for-improving-speech-understanding-in-real-time-embedded-systems/ 进行在线申请
      联系方式:Fabrice Auzanneau (fabrice.auzanneau@cea.fr)

      References

      [1] Kolbaek, M. et al. Multitalker Speech Separation With Utterance-Level Permutation Invariant Training of Deep Recurrent Neural Networks. IEEE/ACM Trans. Audio, Speech and Lang. Proc. 25, 1901–1913 (2017).

      [2] Luo, Y., Chen, Z., Mesgarani, N. & Yoshioka, T. End-to-end Microphone Permutation and Number Invariant Multi-channel Speech Separation. arXiv:1910.14104 [cs, eess] (2020).

      [3] Furnon, N., Serizel, R., Illina, I. & Essid, S. Distributed speech separation in spatially unconstrained microphone arrays. in ICASSP 2021 - 46th International Conference on Acoustics, Speech, and Signal Processing (2021).

      [4] Heymann, J., Drude, L. & Haeb-Umbach, R. Neural network based spectral mask estimation for acoustic beamforming. in 2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) 196–200 (2016). doi:10.1109/ICASSP.2016.7471664.

      [5] Berlin, C. I. et al. Multi-site diagnosis and management of 260 patients with auditory neuropathy/dys-synchrony (auditory neuropathy spectrum disorder). Int J Audiol 49, 30–43 (2010).

      [6] Blalock, D. et al. What is the State of Neural Network Pruning? Proceedings of Machine Learning and Systems 2020 (MLSys 2020) https://arxiv.org/abs/2003.03033

      [7] Gholami, A. et al. A Survey of Quantization Methods for Efficient Neural Network Inference. https://arxiv.org/abs/2103.13630

      1 Reply Last reply Reply Quote 0
      • First post
        Last post