skip to content
Efficient sequential learning in structured and constrained environments Preview this item
ClosePreview this item
Checking...

Efficient sequential learning in structured and constrained environments

Author: Daniele CalandrielloMichal ValkoAlessandro LazaricUniversité Lille 1 - Sciences et technologies (Villeneuve-d'Ascq / 1970-2017).École doctorale Sciences pour l'Ingénieur (Lille).All authors
Publisher: 2017.
Dissertation: Thèse de doctorat : Informatique : Lille 1 : 2017.
Edition/Format:   Computer file : Document : Thesis/dissertation : English
Summary:
L'avantage principal des méthodes d'apprentissage non-paramétriques réside dans le fait que la nombre de degrés de libertés du modèle appris s'adapte automatiquement au nombre d'échantillons. Ces méthodes sont cependant limitées par le "fléau de la kernelisation": apprendre le modèle requière dans un premier temps de construire une matrice de similitude entre tous les échantillons. La complexité est
Rating:

(not yet rated) 0 with reviews - Be the first.

Subjects
More like this

Find a copy online

Links to this item

Find a copy in the library

&AllPage.SpinnerRetrieving; Finding libraries that hold this item...

Details

Genre/Form: Thèses et écrits académiques
Material Type: Document, Thesis/dissertation, Internet resource
Document Type: Internet Resource, Computer File
All Authors / Contributors: Daniele Calandriello; Michal Valko; Alessandro Lazaric; Université Lille 1 - Sciences et technologies (Villeneuve-d'Ascq / 1970-2017).; École doctorale Sciences pour l'Ingénieur (Lille).; Centre de recherche en informatique, signal et automatique de Lille.
OCLC Number: 1057316699
Notes: Titre provenant de l'écran-titre.
Description: 1 online resource
Responsibility: Daniele Calandriello ; sous la direction de Michal Valko et de Alessandro Lazaric.

Abstract:

L'avantage principal des méthodes d'apprentissage non-paramétriques réside dans le fait que la nombre de degrés de libertés du modèle appris s'adapte automatiquement au nombre d'échantillons. Ces méthodes sont cependant limitées par le "fléau de la kernelisation": apprendre le modèle requière dans un premier temps de construire une matrice de similitude entre tous les échantillons. La complexité est alors quadratique en temps et espace, ce qui s'avère rapidement trop coûteux pour les jeux de données de grande dimension. Cependant, la dimension "effective" d'un jeu de donnée est bien souvent beaucoup plus petite que le nombre d'échantillons lui-même. Il est alors possible de substituer le jeu de donnée réel par un jeu de données de taille réduite (appelé "dictionnaire") composé exclusivement d'échantillons informatifs. Malheureusement, les méthodes avec garanties théoriques utilisant des dictionnaires comme "Ridge Leverage Score" (RLS) ont aussi une complexité quadratique. Dans cette thèse nous présentons une nouvelle méthode d'échantillonage RLS qui met à jour le dictionnaire séquentiellement en ne comparant chaque nouvel échantillon qu'avec le dictionnaire actuel, et non avec l'ensemble des échantillons passés. Nous montrons que la taille de tous les dictionnaires ainsi construits est de l'ordre de la dimension effective du jeu de données final, garantissant ainsi une complexité en temps et espace à chaque étape indépendante du nombre total d'échantillons. Cette méthode présente l'avantage de pouvoir être parallélisée. Enfin, nous montrons que de nombreux problèmes d'apprentissage non-paramétriques peuvent être résolus de manière approchée grâce à notre méthode.

The main advantage of non-parametric models is that the accuracy of the model (degrees of freedom) adapts to the number of samples. The main drawback is the so-called "curse of kernelization": to learn the model we must first compute a similarity matrix among all samples, which requires quadratic space and time and is unfeasible for large datasets. Nonetheless the underlying effective dimension (effective d.o.f.) of the dataset is often much smaller than its size, and we can replace the dataset with a subset (dictionary) of highly informative samples. Unfortunately, fast data-oblivious selection methods (e.g., uniform sampling) almost always discard useful information, while data-adaptive methods that provably construct an accurate dictionary, such as ridge leverage score (RLS) sampling, have a quadratic time/space cost. In this thesis we introduce a new single-pass streaming RLS sampling approach that sequentially construct the dictionary, where each step compares a new sample only with the current intermediate dictionary and not all past samples. We prove that the size of all intermediate dictionaries scales only with the effective dimension of the dataset, and therefore guarantee a per-step time and space complexity independent from the number of samples. This reduces the overall time required to construct provably accurate dictionaries from quadratic to near-linear, or even logarithmic when parallelized. Finally, for many non-parametric learning problems (e.g., K-PCA, graph SSL, online kernel learning) we we show that we can can use the generated dictionaries to compute approximate solutions in near-linear that are both provably accurate and empirically competitive.

Reviews

User-contributed reviews
Retrieving GoodReads reviews...
Retrieving DOGObooks reviews...

Tags

Be the first.
Confirm this request

You may have already requested this item. Please select Ok if you would like to proceed with this request anyway.

Linked Data


\n\n

Primary Entity<\/h3>\n
<http:\/\/www.worldcat.org\/oclc\/1057316699<\/a>> # Efficient sequential learning in structured and constrained environments<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:CreativeWork<\/a>, bgn:ComputerFile<\/a>, bgn:Thesis<\/a>, schema:MediaObject<\/a> ;\u00A0\u00A0\u00A0\nbgn:inSupportOf<\/a> \"Th\u00E8se de doctorat : Informatique : Lille 1 : 2017.<\/span>\" ;\u00A0\u00A0\u00A0\nlibrary:oclcnum<\/a> \"1057316699<\/span>\" ;\u00A0\u00A0\u00A0\nlibrary:placeOfPublication<\/a> <http:\/\/id.loc.gov\/vocabulary\/countries\/fr<\/a>> ;\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/analyse_en_composantes_principales<\/a>> ; # Analyse en composantes principales<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/optimisation_convexe<\/a>> ; # Optimisation convexe<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/prediction_sequentielle<\/a>> ; # Pr\u00E9diction s\u00E9quentielle<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Thing\/echantillonnage_preferentiel<\/a>> ; # \u00C9chantillonnage pr\u00E9f\u00E9rentiel<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Thing\/methode_de_nystrom<\/a>> ; # M\u00E9thode de Nystr\u00F6m<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/graphes_aleatoires<\/a>> ; # Graphes al\u00E9atoires<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/representation_parcimonieuse<\/a>> ; # Repr\u00E9sentation parcimonieuse<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/statistique_non_parametrique<\/a>> ; # Statistique non param\u00E9trique<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/apprentissage_automatique<\/a>> ; # Apprentissage automatique<\/span>\n\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/dewey.info\/class\/006.31\/<\/a>> ;\u00A0\u00A0\u00A0\nschema:about<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Thing\/apprentissage_automatique_a_grande_echelle<\/a>> ; # Apprentissage automatique \u00E0 grande \u00E9chelle<\/span>\n\u00A0\u00A0\u00A0\nschema:author<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Person\/calandriello_daniele_1989<\/a>> ; # Daniele Calandriello<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Organization\/centre_de_recherche_en_informatique_signal_et_automatique_de_lille<\/a>> ; # Centre de recherche en informatique, signal et automatique de Lille.<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Organization\/ecole_doctorale_sciences_pour_l_ingenieur_lille<\/a>> ; # \u00C9cole doctorale Sciences pour l\'Ing\u00E9nieur (Lille).<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Organization\/universite_lille_1_sciences_et_technologies_villeneuve_d_ascq_1970_2017<\/a>> ; # Universit\u00E9 Lille 1 - Sciences et technologies (Villeneuve-d\'Ascq \/ 1970-2017).<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Person\/lazaric_alessandro<\/a>> ; # Alessandro Lazaric<\/span>\n\u00A0\u00A0\u00A0\nschema:contributor<\/a> <http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Person\/valko_michal<\/a>> ; # Michal Valko<\/span>\n\u00A0\u00A0\u00A0\nschema:datePublished<\/a> \"2017<\/span>\" ;\u00A0\u00A0\u00A0\nschema:description<\/a> \"L\'avantage principal des m\u00E9thodes d\'apprentissage non-param\u00E9triques r\u00E9side dans le fait que la nombre de degr\u00E9s de libert\u00E9s du mod\u00E8le appris s\'adapte automatiquement au nombre d\'\u00E9chantillons. Ces m\u00E9thodes sont cependant limit\u00E9es par le \"fl\u00E9au de la kernelisation\": apprendre le mod\u00E8le requi\u00E8re dans un premier temps de construire une matrice de similitude entre tous les \u00E9chantillons. La complexit\u00E9 est alors quadratique en temps et espace, ce qui s\'av\u00E8re rapidement trop co\u00FBteux pour les jeux de donn\u00E9es de grande dimension. Cependant, la dimension \"effective\" d\'un jeu de donn\u00E9e est bien souvent beaucoup plus petite que le nombre d\'\u00E9chantillons lui-m\u00EAme. Il est alors possible de substituer le jeu de donn\u00E9e r\u00E9el par un jeu de donn\u00E9es de taille r\u00E9duite (appel\u00E9 \"dictionnaire\") compos\u00E9 exclusivement d\'\u00E9chantillons informatifs. Malheureusement, les m\u00E9thodes avec garanties th\u00E9oriques utilisant des dictionnaires comme \"Ridge Leverage Score\" (RLS) ont aussi une complexit\u00E9 quadratique. Dans cette th\u00E8se nous pr\u00E9sentons une nouvelle m\u00E9thode d\'\u00E9chantillonage RLS qui met \u00E0 jour le dictionnaire s\u00E9quentiellement en ne comparant chaque nouvel \u00E9chantillon qu\'avec le dictionnaire actuel, et non avec l\'ensemble des \u00E9chantillons pass\u00E9s. Nous montrons que la taille de tous les dictionnaires ainsi construits est de l\'ordre de la dimension effective du jeu de donn\u00E9es final, garantissant ainsi une complexit\u00E9 en temps et espace \u00E0 chaque \u00E9tape ind\u00E9pendante du nombre total d\'\u00E9chantillons. Cette m\u00E9thode pr\u00E9sente l\'avantage de pouvoir \u00EAtre parall\u00E9lis\u00E9e. Enfin, nous montrons que de nombreux probl\u00E8mes d\'apprentissage non-param\u00E9triques peuvent \u00EAtre r\u00E9solus de mani\u00E8re approch\u00E9e gr\u00E2ce \u00E0 notre m\u00E9thode.<\/span>\" ;\u00A0\u00A0\u00A0\nschema:description<\/a> \"The main advantage of non-parametric models is that the accuracy of the model (degrees of freedom) adapts to the number of samples. The main drawback is the so-called \"curse of kernelization\": to learn the model we must first compute a similarity matrix among all samples, which requires quadratic space and time and is unfeasible for large datasets. Nonetheless the underlying effective dimension (effective d.o.f.) of the dataset is often much smaller than its size, and we can replace the dataset with a subset (dictionary) of highly informative samples. Unfortunately, fast data-oblivious selection methods (e.g., uniform sampling) almost always discard useful information, while data-adaptive methods that provably construct an accurate dictionary, such as ridge leverage score (RLS) sampling, have a quadratic time\/space cost. In this thesis we introduce a new single-pass streaming RLS sampling approach that sequentially construct the dictionary, where each step compares a new sample only with the current intermediate dictionary and not all past samples. We prove that the size of all intermediate dictionaries scales only with the effective dimension of the dataset, and therefore guarantee a per-step time and space complexity independent from the number of samples. This reduces the overall time required to construct provably accurate dictionaries from quadratic to near-linear, or even logarithmic when parallelized. Finally, for many non-parametric learning problems (e.g., K-PCA, graph SSL, online kernel learning) we we show that we can can use the generated dictionaries to compute approximate solutions in near-linear that are both provably accurate and empirically competitive.<\/span>\" ;\u00A0\u00A0\u00A0\nschema:exampleOfWork<\/a> <http:\/\/worldcat.org\/entity\/work\/id\/5489631542<\/a>> ;\u00A0\u00A0\u00A0\nschema:genre<\/a> \"Th\u00E8ses et \u00E9crits acad\u00E9miques<\/span>\" ;\u00A0\u00A0\u00A0\nschema:inLanguage<\/a> \"en<\/span>\" ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Efficient sequential learning in structured and constrained environments<\/span>\" ;\u00A0\u00A0\u00A0\nschema:productID<\/a> \"1057316699<\/span>\" ;\u00A0\u00A0\u00A0\nschema:url<\/a> <http:\/\/ori-nuxeo.univ-lille1.fr\/nuxeo\/site\/esupversions\/37a4b0d5-d5b5-445a-bd08-9f48e0091232<\/a>> ;\u00A0\u00A0\u00A0\nschema:url<\/a> <http:\/\/www.theses.fr\/2017LIL10216\/document<\/a>> ;\u00A0\u00A0\u00A0\nwdrs:describedby<\/a> <http:\/\/www.worldcat.org\/title\/-\/oclc\/1057316699<\/a>> ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n\n

Related Entities<\/h3>\n
<http:\/\/dewey.info\/class\/006.31\/<\/a>>\u00A0\u00A0\u00A0\u00A0a \nschema:Intangible<\/a> ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Organization\/centre_de_recherche_en_informatique_signal_et_automatique_de_lille<\/a>> # Centre de recherche en informatique, signal et automatique de Lille.<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Organization<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Centre de recherche en informatique, signal et automatique de Lille.<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Organization\/ecole_doctorale_sciences_pour_l_ingenieur_lille<\/a>> # \u00C9cole doctorale Sciences pour l\'Ing\u00E9nieur (Lille).<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Organization<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"\u00C9cole doctorale Sciences pour l\'Ing\u00E9nieur (Lille).<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Organization\/universite_lille_1_sciences_et_technologies_villeneuve_d_ascq_1970_2017<\/a>> # Universit\u00E9 Lille 1 - Sciences et technologies (Villeneuve-d\'Ascq \/ 1970-2017).<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Organization<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Universit\u00E9 Lille 1 - Sciences et technologies (Villeneuve-d\'Ascq \/ 1970-2017).<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Person\/calandriello_daniele_1989<\/a>> # Daniele Calandriello<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Person<\/a> ;\u00A0\u00A0\u00A0\nschema:birthDate<\/a> \"1989<\/span>\" ;\u00A0\u00A0\u00A0\nschema:deathDate<\/a> \"\" ;\u00A0\u00A0\u00A0\nschema:familyName<\/a> \"Calandriello<\/span>\" ;\u00A0\u00A0\u00A0\nschema:givenName<\/a> \"Daniele<\/span>\" ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Daniele Calandriello<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Person\/lazaric_alessandro<\/a>> # Alessandro Lazaric<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Person<\/a> ;\u00A0\u00A0\u00A0\nschema:familyName<\/a> \"Lazaric<\/span>\" ;\u00A0\u00A0\u00A0\nschema:givenName<\/a> \"Alessandro<\/span>\" ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Alessandro Lazaric<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Person\/valko_michal<\/a>> # Michal Valko<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Person<\/a> ;\u00A0\u00A0\u00A0\nschema:familyName<\/a> \"Valko<\/span>\" ;\u00A0\u00A0\u00A0\nschema:givenName<\/a> \"Michal<\/span>\" ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Michal Valko<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Thing\/apprentissage_automatique_a_grande_echelle<\/a>> # Apprentissage automatique \u00E0 grande \u00E9chelle<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Thing<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Apprentissage automatique \u00E0 grande \u00E9chelle<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Thing\/echantillonnage_preferentiel<\/a>> # \u00C9chantillonnage pr\u00E9f\u00E9rentiel<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Thing<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"\u00C9chantillonnage pr\u00E9f\u00E9rentiel<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Thing\/methode_de_nystrom<\/a>> # M\u00E9thode de Nystr\u00F6m<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Thing<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"M\u00E9thode de Nystr\u00F6m<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/analyse_en_composantes_principales<\/a>> # Analyse en composantes principales<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Intangible<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Analyse en composantes principales<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/apprentissage_automatique<\/a>> # Apprentissage automatique<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Intangible<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Apprentissage automatique<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/graphes_aleatoires<\/a>> # Graphes al\u00E9atoires<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Intangible<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Graphes al\u00E9atoires<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/optimisation_convexe<\/a>> # Optimisation convexe<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Intangible<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Optimisation convexe<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/prediction_sequentielle<\/a>> # Pr\u00E9diction s\u00E9quentielle<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Intangible<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Pr\u00E9diction s\u00E9quentielle<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/representation_parcimonieuse<\/a>> # Repr\u00E9sentation parcimonieuse<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Intangible<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Repr\u00E9sentation parcimonieuse<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/experiment.worldcat.org\/entity\/work\/data\/5489631542#Topic\/statistique_non_parametrique<\/a>> # Statistique non param\u00E9trique<\/span>\n\u00A0\u00A0\u00A0\u00A0a \nschema:Intangible<\/a> ;\u00A0\u00A0\u00A0\nschema:name<\/a> \"Statistique non param\u00E9trique<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/id.loc.gov\/vocabulary\/countries\/fr<\/a>>\u00A0\u00A0\u00A0\u00A0a \nschema:Place<\/a> ;\u00A0\u00A0\u00A0\ndcterms:identifier<\/a> \"fr<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n
<http:\/\/www.theses.fr\/2017LIL10216\/document<\/a>>\u00A0\u00A0\u00A0\nrdfs:comment<\/a> \"Acc\u00E8s au texte int\u00E9gral<\/span>\" ;\u00A0\u00A0\u00A0\u00A0.\n\n\n<\/div>\n