skip to content
Covid-19 virus
COVID-19 Resources

Reliable information about the coronavirus (COVID-19) is available from the World Health Organization (current situation, international travel). Numerous and frequently-updated resource results are available from this WorldCat.org search. OCLC’s WebJunction has pulled together information and resources to assist library staff as they consider how to handle coronavirus issues in their communities.

Image provided by: CDC/ Alissa Eckert, MS; Dan Higgins, MAM
Séparation de sources en ligne dans des environnements réverbérants en exploitant la localisation des sources Preview this item
ClosePreview this item
Checking...

Séparation de sources en ligne dans des environnements réverbérants en exploitant la localisation des sources

Author: Jack HarrisChristian JuttenJonathon A ChambersPaul LepperYannick DevilleAll authors
Publisher: 2015.
Dissertation: Thèse de doctorat : Signal image parole telecoms : Université Grenoble Alpes (ComUE) : 2015.
Thèse de doctorat : Signal image parole telecoms : Loughborough university : 2015.
Edition/Format:   Computer file : Document : Thesis/dissertation : French
Summary:
Cette thèse porte sur les techniques de séparation de sources en aveugle en utilisant des statistiques de second ordre et statistiques d'ordresupérieur pour les environnements de réverbération. Un objectif de la thèse est la simplicité algorithmique en vue de l'implantation en lignedes algorithmes. Le principal défi des applications de séparation de sources aveugles est de s'occuper des environnements
Rating:

(not yet rated) 0 with reviews - Be the first.

Subjects
More like this

Find a copy online

Links to this item

Find a copy in the library

&AllPage.SpinnerRetrieving; Finding libraries that hold this item...

Details

Genre/Form: Thèses et écrits académiques
Material Type: Document, Thesis/dissertation, Internet resource
Document Type: Internet Resource, Computer File
All Authors / Contributors: Jack Harris; Christian Jutten; Jonathon A Chambers; Paul Lepper; Yannick Deville; Danilo P Mandic; Bertrand Rivet; Communauté d'universités et d'établissements Université Grenoble Alpes.; Loughborough university.; École doctorale électronique, électrotechnique, automatique, traitement du signal (Grenoble).; Grenoble Images Parole Signal Automatique.
OCLC Number: 1020068217
Notes: Thèse soutenue en co-tutelle.
Titre provenant de l'écran-titre.
Description: 1 online resource
Responsibility: Jack Harris ; sous la direction de Christian Jutten et de Jonathon A. Chambers.

Abstract:

Cette thèse porte sur les techniques de séparation de sources en aveugle en utilisant des statistiques de second ordre et statistiques d'ordresupérieur pour les environnements de réverbération. Un objectif de la thèse est la simplicité algorithmique en vue de l'implantation en lignedes algorithmes. Le principal défi des applications de séparation de sources aveugles est de s'occuper des environnements acoustiques de réverbération; une complication supplémentaire concerne les changements dans l'environnement acoustique lorsque les sources humaines se déplacent physiquement.Une nouvelle méthode dans le domaine temporel qui utilise une paire de filtres à réponse impulsionnelle finie est proposée. Cette méthode, dite les angles principaux, sur un décomposition en valeurs singulières. Une paire de filtres, jouant le rôle de formation de voie, est estimée de façon à annuler une des sources. Une étape de filtrage adaptatif estensuite utilisée pour récupérer la source restante, en exploitant la sortie de l'étage de beamforming en tant que une référence de bruit. Une approche commune de la séparation de sources aveugle est d'utiliser des méthodes fondée sur les statistiques d'ordre supérieur comme l'analyse en composantes indépendantes. Cependant, pour des mélanges convolutifs audio et vocales réalistes, la transformation dansle domaine fréquentiel pour chaque fréquence de calcul est nécessaire. Ceci introduit le problème de permutations, inhérentes à l'analyse en composantes indépendantes, pour tout les fréquences. L'analyse en vecteur indépendant résout directement cette question par la modélisation des dépendances entre les fréquences de calcul, à partir d'a priori sur les sources. Un algorithme de gradient naturel en temps réel est également proposé proposé avec un autre a priori sur les sources. Cette méthode exploite la fonction de densité de probabilité de Student, est connu pour être bien adapté pour les sources de parole, en raison de queues de distribution plus lourdes. L'algorithme final est implanté en temps réel sur un processeur numérique de signal à virgule flottante de Texas Instruments.Les sources mobiles, avec des environnements réverbérant, causent des problèmes significatifs dans les systèmes de séparation desources réalistes car les filtres de mélange deviennent variants dans le temps. Dans ce cadre, une méthode qui utilise conjointement leprincipe de la paire de filtres d'annulation et le principe de l'analyse en vecteurs indépendant. Cette approche permet de limiter les baisses de performance lorsque les sources sont mobiles. Les résultats montrent également que les temps moyen de convergence des divers paramètres sont diminués.Les méthodes en ligne qui sont introduites dans la thèse, sont testées en utilisant des réponses impulsionnelles mesurées dans des environnements de réverbération. Les résultats montrent leur robustesse et d'excellentes performances par rapport à d'autres méthodes classique, dans plusieurs situations expérimentales.

Methods for improving the real-time performance and speed of various source enhancement and separation are considered. Two themes of research are considered so far: a method which relies only on second order statistics to enhance a target source exploiting video cues. Secondly, a higher-order statistics method, independent vector analysis is implemented in real-time on a digital signal processor, where an alternative source prior has been used performance is shown to have improved.

Reviews

User-contributed reviews
Retrieving GoodReads reviews...
Retrieving DOGObooks reviews...

Tags

Be the first.
Confirm this request

You may have already requested this item. Please select Ok if you would like to proceed with this request anyway.

Linked Data


\n\n

Primary Entity<\/h3>\n
<http:\/\/www.worldcat.org\/oclc\/1020068217<\/a>> # S\u00E9paration de sources en ligne dans des environnements r\u00E9verb\u00E9rants en exploitant la localisation des sources<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nbgn:ComputerFile<\/a>, bgn:Thesis<\/a>, schema:MediaObject<\/a>, schema:CreativeWork<\/a> ;\u00A0\u00A0\u00A0\nbgn:inSupportOf<\/a> \"Th\u00E8se de doctorat : Signal image parole telecoms : Loughborough university : 2015.<\/span>\" ;\u00A0\u00A0\u00A0\nbgn:inSupportOf<\/a> \"Th\u00E8se de doctorat : Signal image parole telecoms : Universit\u00E9 Grenoble Alpes (ComUE) : 2015.<\/span>\" ;\u00A0\u00A0\u00A0\nlibrary:oclcnum<\/a> \"1020068217<\/span>\" ;\u00A0\u00A0\u00A0\nlibrary:placeOfPublication<\/a> <http:\/\/id.loc.gov\/vocabulary\/countries\/fr<\/a>> ;\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Thing\/separation_de_source<\/a>> ; # Separation de Source<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Thing\/amelioration_de_source_audio<\/a>> ; # Am\u00E9lioration de source audio<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Thing\/parole_audiovisuelle<\/a>> ; # Parole Audiovisuelle<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Topic\/traitement_automatique_de_la_parole<\/a>> ; # Traitement automatique de la parole<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/dewey.info\/class\/004\/<\/a>> ;\u00A0\u00A0\u00A0\nschema:author<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/harris_jack_1988<\/a>> ; # Jack Harris<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Organization\/grenoble_images_parole_signal_automatique<\/a>> ; # Grenoble Images Parole Signal Automatique.<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Organization\/ecole_doctorale_electronique_electrotechnique_automatique_traitement_du_signal_grenoble<\/a>> ; # \u00C9cole doctorale \u00E9lectronique, \u00E9lectrotechnique, automatique, traitement du signal (Grenoble).<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Organization\/loughborough_university<\/a>> ; # Loughborough university.<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/mandic_danilo_p<\/a>> ; # Danilo P Mandic<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/lepper_paul<\/a>> ; # Paul Lepper<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/chambers_jonathon_a<\/a>> ; # Jonathon A Chambers<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/deville_yannick<\/a>> ; # Yannick Deville<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/jutten_christian_1954<\/a>> ; # Christian Jutten<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/rivet_bertrand_1979<\/a>> ; # Bertrand Rivet<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Organization\/communaute_d_universites_et_d_etablissements_universite_grenoble_alpes<\/a>> ; # Communaut\u00E9 d\'universit\u00E9s et d\'\u00E9tablissements Universit\u00E9 Grenoble Alpes.<\/span>\n\u00A0\u00A0\u00A0\nschema:datePublished<\/a> \"2015<\/span>\" ;\u00A0\u00A0\u00A0\nschema:description<\/a> \"Cette th\u00E8se porte sur les techniques de s\u00E9paration de sources en aveugle en utilisant des statistiques de second ordre et statistiques d\'ordresup\u00E9rieur pour les environnements de r\u00E9verb\u00E9ration. Un objectif de la th\u00E8se est la simplicit\u00E9 algorithmique en vue de l\'implantation en lignedes algorithmes. Le principal d\u00E9fi des applications de s\u00E9paration de sources aveugles est de s\'occuper des environnements acoustiques de r\u00E9verb\u00E9ration; une complication suppl\u00E9mentaire concerne les changements dans l\'environnement acoustique lorsque les sources humaines se d\u00E9placent physiquement.Une nouvelle m\u00E9thode dans le domaine temporel qui utilise une paire de filtres \u00E0 r\u00E9ponse impulsionnelle finie est propos\u00E9e. Cette m\u00E9thode, dite les angles principaux, sur un d\u00E9composition en valeurs singuli\u00E8res. Une paire de filtres, jouant le r\u00F4le de formation de voie, est estim\u00E9e de fa\u00E7on \u00E0 annuler une des sources. Une \u00E9tape de filtrage adaptatif estensuite utilis\u00E9e pour r\u00E9cup\u00E9rer la source restante, en exploitant la sortie de l\'\u00E9tage de beamforming en tant que une r\u00E9f\u00E9rence de bruit. Une approche commune de la s\u00E9paration de sources aveugle est d\'utiliser des m\u00E9thodes fond\u00E9e sur les statistiques d\'ordre sup\u00E9rieur comme l\'analyse en composantes ind\u00E9pendantes. Cependant, pour des m\u00E9langes convolutifs audio et vocales r\u00E9alistes, la transformation dansle domaine fr\u00E9quentiel pour chaque fr\u00E9quence de calcul est n\u00E9cessaire. Ceci introduit le probl\u00E8me de permutations, inh\u00E9rentes \u00E0 l\'analyse en composantes ind\u00E9pendantes, pour tout les fr\u00E9quences. L\'analyse en vecteur ind\u00E9pendant r\u00E9sout directement cette question par la mod\u00E9lisation des d\u00E9pendances entre les fr\u00E9quences de calcul, \u00E0 partir d\'a priori sur les sources. Un algorithme de gradient naturel en temps r\u00E9el est \u00E9galement propos\u00E9 propos\u00E9 avec un autre a priori sur les sources. Cette m\u00E9thode exploite la fonction de densit\u00E9 de probabilit\u00E9 de Student, est connu pour \u00EAtre bien adapt\u00E9 pour les sources de parole, en raison de queues de distribution plus lourdes. L\'algorithme final est implant\u00E9 en temps r\u00E9el sur un processeur num\u00E9rique de signal \u00E0 virgule flottante de Texas Instruments.Les sources mobiles, avec des environnements r\u00E9verb\u00E9rant, causent des probl\u00E8mes significatifs dans les syst\u00E8mes de s\u00E9paration desources r\u00E9alistes car les filtres de m\u00E9lange deviennent variants dans le temps. Dans ce cadre, une m\u00E9thode qui utilise conjointement leprincipe de la paire de filtres d\'annulation et le principe de l\'analyse en vecteurs ind\u00E9pendant. Cette approche permet de limiter les baisses de performance lorsque les sources sont mobiles. Les r\u00E9sultats montrent \u00E9galement que les temps moyen de convergence des divers param\u00E8tres sont diminu\u00E9s.Les m\u00E9thodes en ligne qui sont introduites dans la th\u00E8se, sont test\u00E9es en utilisant des r\u00E9ponses impulsionnelles mesur\u00E9es dans des environnements de r\u00E9verb\u00E9ration. Les r\u00E9sultats montrent leur robustesse et d\'excellentes performances par rapport \u00E0 d\'autres m\u00E9thodes classique, dans plusieurs situations exp\u00E9rimentales.<\/span>\"@fr<\/a> ;\u00A0\u00A0\u00A0\nschema:description<\/a> \"Methods for improving the real-time performance and speed of various source enhancement and separation are considered. Two themes of research are considered so far: a method which relies only on second order statistics to enhance a target source exploiting video cues. Secondly, a higher-order statistics method, independent vector analysis is implemented in real-time on a digital signal processor, where an alternative source prior has been used performance is shown to have improved.<\/span>\"@fr<\/a> ;\u00A0\u00A0\u00A0\nschema:exampleOfWork<\/a> <http:\/\/worldcat.org\/entity\/work\/id\/4729150694<\/a>> ;\u00A0\u00A0\u00A0\nschema:genre<\/a> \"Th\u00E8ses et \u00E9crits acad\u00E9miques<\/span>\"@fr<\/a> ;\u00A0\u00A0\u00A0\nschema:inLanguage<\/a> \"fr<\/span>\" ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"S\u00E9paration de sources en ligne dans des environnements r\u00E9verb\u00E9rants en exploitant la localisation des sources<\/span>\"@fr<\/a> ;\u00A0\u00A0\u00A0\nschema:productID<\/a> \"1020068217<\/span>\" ;\u00A0\u00A0\u00A0\nschema:url<\/a> <https:\/\/tel.archives-ouvertes.fr\/tel-01689874<\/a>> ;\u00A0\u00A0\u00A0\nschema:url<\/a> <http:\/\/www.theses.fr\/2015GREAT143\/document<\/a>> ;\u00A0\u00A0\u00A0\nschema:url<\/a> <http:\/\/www.theses.fr\/2015GREAT143\/abes<\/a>> ;\u00A0\u00A0\u00A0\nwdrs:describedby<\/a> <http:\/\/www.worldcat.org\/title\/-\/oclc\/1020068217<\/a>> ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n\n

Related Entities<\/h3>\n
<http:\/\/dewey.info\/class\/004\/<\/a>>\u00A0\u00A0\u00A0\u00A0a \nschema:Intangible<\/a> ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Organization\/communaute_d_universites_et_d_etablissements_universite_grenoble_alpes<\/a>> # Communaut\u00E9 d\'universit\u00E9s et d\'\u00E9tablissements Universit\u00E9 Grenoble Alpes.<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Organization<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Communaut\u00E9 d\'universit\u00E9s et d\'\u00E9tablissements Universit\u00E9 Grenoble Alpes.<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Organization\/ecole_doctorale_electronique_electrotechnique_automatique_traitement_du_signal_grenoble<\/a>> # \u00C9cole doctorale \u00E9lectronique, \u00E9lectrotechnique, automatique, traitement du signal (Grenoble).<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Organization<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"\u00C9cole doctorale \u00E9lectronique, \u00E9lectrotechnique, automatique, traitement du signal (Grenoble).<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Organization\/grenoble_images_parole_signal_automatique<\/a>> # Grenoble Images Parole Signal Automatique.<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Organization<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Grenoble Images Parole Signal Automatique.<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Organization\/loughborough_university<\/a>> # Loughborough university.<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Organization<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Loughborough university.<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/chambers_jonathon_a<\/a>> # Jonathon A Chambers<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Person<\/a> ;\u00A0\u00A0\u00A0\nschema:familyName<\/a> \"Chambers<\/span>\" ;\u00A0\u00A0\u00A0\nschema:givenName<\/a> \"Jonathon A.<\/span>\" ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Jonathon A Chambers<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/deville_yannick<\/a>> # Yannick Deville<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Person<\/a> ;\u00A0\u00A0\u00A0\nschema:familyName<\/a> \"Deville<\/span>\" ;\u00A0\u00A0\u00A0\nschema:givenName<\/a> \"Yannick<\/span>\" ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Yannick Deville<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/harris_jack_1988<\/a>> # Jack Harris<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Person<\/a> ;\u00A0\u00A0\u00A0\nschema:birthDate<\/a> \"1988<\/span>\" ;\u00A0\u00A0\u00A0\nschema:deathDate<\/a> \"\" ;\u00A0\u00A0\u00A0\nschema:familyName<\/a> \"Harris<\/span>\" ;\u00A0\u00A0\u00A0\nschema:givenName<\/a> \"Jack<\/span>\" ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Jack Harris<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/jutten_christian_1954<\/a>> # Christian Jutten<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Person<\/a> ;\u00A0\u00A0\u00A0\nschema:birthDate<\/a> \"1954<\/span>\" ;\u00A0\u00A0\u00A0\nschema:deathDate<\/a> \"\" ;\u00A0\u00A0\u00A0\nschema:familyName<\/a> \"Jutten<\/span>\" ;\u00A0\u00A0\u00A0\nschema:givenName<\/a> \"Christian<\/span>\" ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Christian Jutten<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/lepper_paul<\/a>> # Paul Lepper<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Person<\/a> ;\u00A0\u00A0\u00A0\nschema:familyName<\/a> \"Lepper<\/span>\" ;\u00A0\u00A0\u00A0\nschema:givenName<\/a> \"Paul<\/span>\" ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Paul Lepper<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/mandic_danilo_p<\/a>> # Danilo P Mandic<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Person<\/a> ;\u00A0\u00A0\u00A0\nschema:familyName<\/a> \"Mandic<\/span>\" ;\u00A0\u00A0\u00A0\nschema:givenName<\/a> \"Danilo P.<\/span>\" ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Danilo P Mandic<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Person\/rivet_bertrand_1979<\/a>> # Bertrand Rivet<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Person<\/a> ;\u00A0\u00A0\u00A0\nschema:birthDate<\/a> \"1979<\/span>\" ;\u00A0\u00A0\u00A0\nschema:deathDate<\/a> \"\" ;\u00A0\u00A0\u00A0\nschema:familyName<\/a> \"Rivet<\/span>\" ;\u00A0\u00A0\u00A0\nschema:givenName<\/a> \"Bertrand<\/span>\" ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Bertrand Rivet<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Thing\/amelioration_de_source_audio<\/a>> # Am\u00E9lioration de source audio<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Thing<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Am\u00E9lioration de source audio<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Thing\/parole_audiovisuelle<\/a>> # Parole Audiovisuelle<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Thing<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Parole Audiovisuelle<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Thing\/separation_de_source<\/a>> # Separation de Source<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Thing<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Separation de Source<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/4729150694#Topic\/traitement_automatique_de_la_parole<\/a>> # Traitement automatique de la parole<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Intangible<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Traitement automatique de la parole<\/span>\"@fr<\/a> ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/id.loc.gov\/vocabulary\/countries\/fr<\/a>>\u00A0\u00A0\u00A0\u00A0a \nschema:Place<\/a> ;\u00A0\u00A0\u00A0\ndcterms:identifier<\/a> \"fr<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/www.theses.fr\/2015GREAT143\/document<\/a>>\u00A0\u00A0\u00A0\nrdfs:comment<\/a> \"Acc\u00E8s au texte int\u00E9gral<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/www.worldcat.org\/title\/-\/oclc\/1020068217<\/a>>\u00A0\u00A0\u00A0\u00A0a \ngenont:InformationResource<\/a>, genont:ContentTypeGenericResource<\/a> ;\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/www.worldcat.org\/oclc\/1020068217<\/a>> ; # S\u00E9paration de sources en ligne dans des environnements r\u00E9verb\u00E9rants en exploitant la localisation des sources<\/span>\n\u00A0\u00A0\u00A0\nschema:dateModified<\/a> \"2020-05-19<\/span>\" ;\u00A0\u00A0\u00A0\nvoid:inDataset<\/a> <http:\/\/purl.oclc.org\/dataset\/WorldCat<\/a>> ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n\n

Content-negotiable representations<\/p>\n