Conferencia Internacional sobre Acústica, Habla y Procesamiento de Señales (ICASSP) 2023

Apple patrocina la Conferencia Internacional sobre Acústica, Procesamiento de Señales y Habla (ICASSP), que se llevará a cabo en persona del 4 al 10 de junio en la isla de Rodas, Grecia. ICASSP es la conferencia insignia de la IEEE Signal Processing Society sobre procesamiento de señales y sus aplicaciones. A continuación se muestra el calendario de talleres y eventos patrocinados por Apple en ICASSP 2023.

Calendario

martes, 6 de junio

miércoles, 7 de junio

jueves, 8 de junio

viernes 9 de junio

Documentos aceptados

Audio-to-Intent usando representaciones de subpalabras acústicas a textuales de un ASR de extremo a extremo

Pranay Dighe, Prateeth Nayak, Oggi Rudovic, Erik Marchi, Xiaochuan Niu, Ahmed Tewfik

HEiMDaL: método altamente eficiente para detectar y localizar palabras de activación

Arnav Kundu, Mohammad Samragh Razlighi, Minsik Cho, Priyanka Padmanabhan, Devang Naik

Veo lo que escuchas: un método inspirado en la visión para localizar palabras

Mohammad Samragh, Arnav Kundu, Ting-Yao Hu, Aman Chadha, Ashish Srivastava, Minsik Cho, Oncel Tuzel, Devang Naik

Mejoras en la integración de coincidencia de palabras acústicas ASR mediante integraciones basadas en pronunciación de hipótesis múltiples

Hao Yen, Woojay Jeon

Aprenda a detectar secuencias acústicas nuevas y finas utilizando representaciones de audio preentrenadas

Vasudha Kowtha, Miquel Espi, Jonathan J Huang, Yichi Zhang, Carlos Avendano

¿Más palabras o más hablantes?

Dan Berrebbi, Ronan Collobert, Navdeep Jaitly, Tatiana Likhomanenko

Generar movimiento naturalista de la cabeza a partir del habla

Trisha Mittal, Zakaria Aldeneh, Masha Fedzechkina, Anurag Ranjan, Barry-John Theobald

Entrenamiento de transductores neuronales: consumo de memoria reducido gracias al cálculo por muestra

Stefan Braun, Erik McDermott, Roger Hsiao

Sobre el papel de la articulación de los labios en la percepción visual del habla

Zakaria Aldeneh, Masha Fedzechkina, Skyler Seto, Katherine Metcalf, Miguel Sarabia, Nicholas Apostoloff, Barry-John Theobald

Representaciones de modelos pre-entrenados y su robustez al ruido para análisis de emociones del habla

Vikramjit Mitra, Vasudha Kowtha, Hsiang-Yun Sherry Chien, Erdrin Azemi, Carlos Avendano

El texto es todo lo que necesita: personalice los modelos ASR usando texto a voz controlable

Karren Yang, Ting-Yao Hu, Jen-Hao Rick Chang, Hema Swetha Koppula, Oncel Tuzel

Enmascaramiento de atención variable para reconocimiento de voz de transductor de transformador configurable

Pawel Swietojanski, Stefan Braun, Dogan Can, Thiago Fraga da Silva, Arnab Ghoshal, Takaaki Hori, Roger Hsiao, Henry Mason, Erik McDermott, Honza Silovsky, Ruchir Travadi, Xiaodan Zhuang

Manifestación

Comprensión contextual en Siri

Esta es una demostración de la tecnología de comprensión del contexto proporcionada por Siri. Los usuarios pueden referirse a una entidad antes mencionada usando anáforas o puntos suspensivos, referirse a una entidad en pantalla o corregir un error anterior de Siri o del usuario. La comprensión del contexto para Siri aprovecha múltiples soluciones de ML de back-end, como la reescritura de consultas y la resolución de referencias. Este trabajo es un paso hacia conversaciones más naturales con Siri y se ha entregado en iOS 16.

Todos los asistentes a ICASSP están invitados a pasar por el stand de Apple (el stand número 16, ubicado junto a la entrada principal del Dome Bar en el Rodos Palace Luxury Convention Resort) para experimentar esta demostración en persona.

Gracias

Tatiana Likhomanenko, Arnav Kundu, Stefan Braun, Vikram Mitra y Pawel Swietojanski son los revisores de ICASSP 2023.

Yannis Stylianou es presidente de la Escuela Estacional y Cursos Cortos para ICASSP 2023.

Innovemos juntos. Cree increíbles experiencias de aprendizaje automático con Apple. Descubra oportunidades para investigadores, estudiantes y desarrolladores visitando nuestra página Trabaja con nosotros.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *