Este artículo propone una metodología para descubrir propiedades significativas en los datos mediante la exploración del espacio latente de modelos generativos profundos no supervisados. Combinamos la manipulación de variables latentes individuales hasta valores extremos fuera del rango de entrenamiento con métodos inspirados en la inferencia causal en un enfoque que llamamos desenredado causal con valores extremos (CDEV) y mostramos que este enfoque proporciona información sobre la interpretabilidad de el modelo. Usando esta técnica, podemos inferir qué propiedades de datos desconocidos codifica el modelo como significativas.
Aplicamos la metodología para probar qué es significativo en el sistema de comunicación del cachalote, uno de los sistemas de comunicación animal más intrigantes y menos estudiados. Entrenamos una red que se ha demostrado que aprende representaciones significativas del habla y probamos si podemos aprovechar ese aprendizaje no supervisado para descifrar las propiedades de otro sistema de comunicación de voz para el cual no tenemos una verdad fundamental.
La técnica propuesta sugiere que los cachalotes codifiquen información utilizando el número de clics en una secuencia, la regularidad de su sincronización y propiedades de audio como el promedio espectral y la regularidad acústica de las secuencias. Algunos de estos resultados son consistentes con hipótesis existentes, mientras que otros se proponen por primera vez.
También argumentamos que nuestros modelos descubren reglas que gobiernan la estructura de las unidades de comunicación en el sistema de comunicación del cachalote y las aplican mientras generan datos novedosos que no se presentan durante el entrenamiento.
Este artículo sugiere que interpretar los resultados de las redes neuronales profundas con una metodología causal puede ser una estrategia viable para abordar datos sobre los que se sabe poco y presenta otro caso de cómo el aprendizaje profundo puede limitar el espacio de las hipótesis.
Finalmente, el enfoque propuesto que combina manipulación del espacio latente e inferencia causal se puede extender a otras arquitecturas y conjuntos de datos arbitrarios.
Gasper Beguš, Andrej Leban, Shane Gero
Comentarios: 25 páginas, 23 figuras.
Temas: Aprendizaje automático (stat.ML); Aprendizaje automático (cs.LG); Sonido (cs.SD); Procesamiento de audio y voz (eess.AS)
Citar como: arXiv:2303.10931 [stat.ML] (o arXiv:2303.10931v1 [stat.ML] para esta versión)
https://doi.org/10.48550/arXiv.2303.10931
Concéntrate en aprender más
Historial de envíos
Por: Andrej Leban
[v1] Lunes, 20 de marzo de 2023 08:09:13 UTC (8148 KB)
https://arxiv.org/abs/2303.10931
Astrobiología, SETI, CETI,
También te puede interesar
-
La red social Butterflies AI agrega una función que te convierte en un personaje de IA
-
Capture cada momento como un profesional con la cámara más potente del Galaxy Z Flip hasta el momento – Samsung Newsroom México
-
Epiroc lanza un nuevo equipo de perforación de producción de pozos largos
-
Caroline Doherty está satisfecha con los resultados del Leaving Cert de los estudiantes de Moville
-
En imágenes: gran revuelo en la jornada de puertas abiertas de los apicultores de Laois – Página 1 de 9