University: Rennes 1 ❌ Country: ❌
You searched for subject:(graphics processing unit GPU computing)
.
Showing records 1 – 30 of
61 total matches.
◁ [1] [2] [3] ▶
1.
Texier, Matthieu.
Gestion dynamique du parallélisme dans les architectures multi-cœurs pour applications mobiles : Dynamic parallelism adaptation in multicore architectures for mobile applications.
Degree: Docteur es, Traitement du signal et télécommunications, 2014, Rennes 1
URL: http://www.theses.fr/2014REN1S081
► Le nombre de smartphones vendus a récemment dépassé celui des ordinateurs. Ces appareils tendent à regrouper de plus en plus de fonctions, ceci grâce à…
(more)
▼ Le nombre de smartphones vendus a récemment dépassé celui des ordinateurs. Ces appareils tendent à regrouper de plus en plus de fonctions, ceci grâce à des applications de plus en plus variées telles que la vidéo conférence, la réalité augmentée, ou encore les jeux vidéo. Le support de ces applications est assuré par des ressources de calculs hétérogènes qui sont spécifiques aux différents types de traitements et qui respectent les performances requises et les contraintes de consommation du système. Les applications graphiques, telles que les jeux vidéo, sont par exemple accélérées par un processeur graphique. Cependant les applications deviennent de plus en plus complexes. Une application de réalité augmentée va par exemple nécessiter du traitement d'image, du rendu graphique et un traitement des informations à afficher. Cette complexité induit souvent une variation de la charge de travail qui impacte les performances et donc les besoins en puissance de calcul de l'application. Ainsi, la parallélisation de l'application, généralement prévue pour une certaine charge, devient inappropriée. Ceci induit un gaspillage des ressources de calcul qui pourraient être exploitées par d'autres applications ou par d'autres étages de l'application. Un pipeline de rendu graphique a été choisi comme cas d'utilisation car c'est une application dynamique et qui est de plus en plus répandu dans les appareils mobiles. Cette application a été implémentée et parallélisée sur un simulateur d'architecture multi-cœurs. Un profilage a confirmé l'aspect dynamique, le temps de calcul de chaque donnée ainsi que le nombre d'objets à calculer variant de manière significative dans le temps et que la meilleure répartition du parallélisme évolue en fonction de la scène rendue. Ceci nous a amenés à définir un système permettant d'adapter, au fil de l'exécution, le parallélisme d'une application en fonction d'une prédiction faite de ses besoins. Le choix d'un nouveau parallélisme nécessite de connaître les besoins en puissance de calcul des différents étages, en surveillant les transferts de données entre les étages de l'application. Enfin, l'adaptation du parallélisme implique une nouvelle répartition des tâches en fonction des besoins des différents étages qui est effectuée grâce à un contrôleur central. Le système a été implémenté dans un simulateur précis au niveau TTLM afin d'estimer les gains de performances permis par l'adaptation dynamique. Une architecture permettant l'accélération de différents types d'applications que ce soit généralistes ou graphiques a été définie et comparée à d'autres architectures multi-cœurs. Le coût matériel de cette architecture a de plus été quantifié. Ainsi, pour un support matériel dont la complexité est inférieure à 1,5 % du design complet, on démontre des gains de performance allant jusqu'à 20 % par rapport à certains déploiements statiques, ainsi que la capacité à gérer dynamiquement un nombre de ressources de calcul variable.
The amount of smartphone sales recently surpassed the desktop computer ones. This…
Advisors/Committee Members: Sentieys, Olivier (thesis director), David, Raphaël (thesis director).
Subjects/Keywords: Équilibrage de charge; Dynamique; Multi-Cœurs; Graphique; Architecture; Mobile; Gpu; Parallélisme; Load balancing; Dynamic; Multicore; Graphics; Architecture; Mobile; Gpu; Parallelism
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Texier, M. (2014). Gestion dynamique du parallélisme dans les architectures multi-cœurs pour applications mobiles : Dynamic parallelism adaptation in multicore architectures for mobile applications. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2014REN1S081
Chicago Manual of Style (16th Edition):
Texier, Matthieu. “Gestion dynamique du parallélisme dans les architectures multi-cœurs pour applications mobiles : Dynamic parallelism adaptation in multicore architectures for mobile applications.” 2014. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2014REN1S081.
MLA Handbook (7th Edition):
Texier, Matthieu. “Gestion dynamique du parallélisme dans les architectures multi-cœurs pour applications mobiles : Dynamic parallelism adaptation in multicore architectures for mobile applications.” 2014. Web. 08 Dec 2019.
Vancouver:
Texier M. Gestion dynamique du parallélisme dans les architectures multi-cœurs pour applications mobiles : Dynamic parallelism adaptation in multicore architectures for mobile applications. [Internet] [Doctoral dissertation]. Rennes 1; 2014. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2014REN1S081.
Council of Science Editors:
Texier M. Gestion dynamique du parallélisme dans les architectures multi-cœurs pour applications mobiles : Dynamic parallelism adaptation in multicore architectures for mobile applications. [Doctoral Dissertation]. Rennes 1; 2014. Available from: http://www.theses.fr/2014REN1S081
2.
Le, Nhan Tam.
Model-driven software engineering for virtual machine images provisioning in cloud computing : L'ingénierie de logiciel dirigée par les modèles pour l'approvisionnement des images de machines virtuelles dans le cloud computing.
Degree: Docteur es, Informatique, 2013, Rennes 1
URL: http://www.theses.fr/2013REN1S185
► La couche Infrastructure- as-a-Service (IaaS) de Cloud Computing offre un service de déploiement des images de machines virtuelles (VMIs) à la demande. Ce service fournit…
(more)
▼ La couche Infrastructure- as-a-Service (IaaS) de Cloud
Computing offre un service de déploiement des images de machines virtuelles (VMIs) à la demande. Ce service fournit une plate-forme flexible pour les utilisateurs de cloud
computing pour développer , déployer et tester leurs applications. Le déploiement d'une VMI implique généralement le démarrage de l'image, l'installation et la configuration des paquets de logiciels. Dans l'approche traditionnelle, lorsqu'un utilisateur de cloud demande une nouvelle plate-forme, le fournisseur de cloud sélectionne une image de modèle approprié pour cloner et déployer sur les nœuds de cloud. L'image de modèle contient des paquets de logiciel pré-installés. Si elle ne correspond pas aux exigences, alors elle sera personnalisée ou la nouvelle image sera créé à partir de zéro pour s'adapter à la demande. Dans le cadre de la gestion des services de cloud, l'approche traditionnelle face aux questions difficiles de la manipulation de la complexité de l'interdépendance entre les paquets de logiciel, mise à l'échelle et le maintien de l' image déployée à l'exécution. Les fournisseurs de cloud souhaitent automatiser ce processus pour améliorer la performance de processus d'approvisionnement des VMIs, et de donner aux utilisateurs de cloud plus de flexibilité pour la sélection ou la création des images appropriées, tout en maximisant les avantages pour les fournisseurs en termes de temps, de ressources et de coût opérationnel. Cette thèse propose une approche pour gérer l'interdépendance des paquets de logiciels, pour modéliser et automatiser le processus de déploiement VMIs, et pour soutenir la reconfiguration VMIS à l'exécution, appelée l'approche dirigée par les modèle (Model-Driven approach). Nous nous adressons particulièrement aux défis suivants: (1) la modélisation de la variabilité des configurations d'image de machine virtuelle, (2) la réduction la quantité de transfert de données à travers le réseau, (3) l'optimisation de la consommation d'énergie des machines virtuelles; (4) la facilité à utiliser pour les utilisateurs de cloud; (5) l'automatisation du déploiement des VMIs; (6) le support de la mise à l'échelle et la reconfiguration de VMIS à l'exécution; (7) la manipulation de la topologie de déploiement complexe des VMIs . Dans notre approche, nous utilisons des techniques d'ingénierie dirigée par les modèles pour modéliser les représentations d'abstraction des configurations de VMI, le déploiement et les processus de reconfiguration d'image de machine virtuelle. Nous considérons que les VMIS comme une gamme de produits et utiliser les modèles de caractère pour représenter les configurations de VMIs. Nous définissons également le déploiement, les processus de reconfiguration et leurs facteurs (par exemple: les images de machines virtuelles, les paquets de logiciel, la plate-forme, la topologie de déploiement, etc.) comme les modèles. D'autre part, l'approche dirigée par les modèles s'appuie sur les abstractions de haut niveau de la configuration de VMIs et le déploiement…
Advisors/Committee Members: Jézéquel, Jean-Marc (thesis director).
Subjects/Keywords: Ingénierie dirigée par les modèles; Modélisation de caractère; Approvisionnement des images; Cloud Computing; Model-driven Engineering, Feature Modeling, Images Provisioning, Cloud Computing; Cloud Computing
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Le, N. T. (2013). Model-driven software engineering for virtual machine images provisioning in cloud computing : L'ingénierie de logiciel dirigée par les modèles pour l'approvisionnement des images de machines virtuelles dans le cloud computing. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2013REN1S185
Chicago Manual of Style (16th Edition):
Le, Nhan Tam. “Model-driven software engineering for virtual machine images provisioning in cloud computing : L'ingénierie de logiciel dirigée par les modèles pour l'approvisionnement des images de machines virtuelles dans le cloud computing.” 2013. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2013REN1S185.
MLA Handbook (7th Edition):
Le, Nhan Tam. “Model-driven software engineering for virtual machine images provisioning in cloud computing : L'ingénierie de logiciel dirigée par les modèles pour l'approvisionnement des images de machines virtuelles dans le cloud computing.” 2013. Web. 08 Dec 2019.
Vancouver:
Le NT. Model-driven software engineering for virtual machine images provisioning in cloud computing : L'ingénierie de logiciel dirigée par les modèles pour l'approvisionnement des images de machines virtuelles dans le cloud computing. [Internet] [Doctoral dissertation]. Rennes 1; 2013. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2013REN1S185.
Council of Science Editors:
Le NT. Model-driven software engineering for virtual machine images provisioning in cloud computing : L'ingénierie de logiciel dirigée par les modèles pour l'approvisionnement des images de machines virtuelles dans le cloud computing. [Doctoral Dissertation]. Rennes 1; 2013. Available from: http://www.theses.fr/2013REN1S185
3.
Iordache, Ancuta.
Performance-cost trade-offs in heterogeneous clouds : Compromis performance-coût dans les clouds hétérogènes.
Degree: Docteur es, Informatique, 2016, Rennes 1
URL: http://www.theses.fr/2016REN1S045
► Les infrastructures de cloud fournissent une grande variété de ressources de calcul à la demande avec différents compromis coût-performance. Cela donne aux utilisateurs des nombreuses…
(more)
▼ Les infrastructures de cloud fournissent une grande variété de ressources de calcul à la demande avec différents compromis coût-performance. Cela donne aux utilisateurs des nombreuses opportunités pour exécuter leurs applications ayant des besoins complexes en ressources, à partir d’un grand nombre de serveurs avec des interconnexions à faible latence jusqu’à des dispositifs spécialisés comme des GPUs et des FPGAs. Les besoins des utilisateurs concernant l’exécution de leurs applications peuvent varier entre une exécution la plus rapide possible, la plus chère ou un compromis entre les deux. Cependant, le choix du nombre et du type des ressources à utiliser pour obtenir le compromis coût-performance que les utilisateurs exigent constitue un défi majeur. Cette thèse propose trois contributions avec l’objectif de fournir des bons compromis coût-performance pour l’exécution des applications sur des plates-formes hétérogènes. Elles suivent deux directions : un bon usage des ressources et un bon choix des ressources. Nous proposons comme première contribution une méthode de partage pour des accélérateurs de type FPGA dans l’objectif de maximiser leur utilisation. Dans une seconde contribution, nous proposons des méthodes de profilage pour la modélisation de la demande en ressources des applications. Enfin, nous démontrons comment ces technologies peuvent être intégrées dans une plate-forme de cloud hétérogène.
Cloud infrastructures provide on-demand access to a large variety of computing devices with different performance and cost. This creates many opportunities for cloud users to run applications having complex resource requirements, starting from large numbers of servers with low-latency interconnects, to specialized devices such as GPUs and FPGAs. User expectations regarding the execution of applications may vary between the fastest possible execution, the cheapest execution or any trade-off between the two extremes. However, enabling cloud users to easily make performance-cost trade-offs is not a trivial exercise and choosing the right amount and type of resources to run applications accordingto user expectations is very difficult. This thesis proposes three contributions to enable performance-cost trade-offs for application execution in heterogeneous clouds by following two directions: make good use of resources and make good choice of resources. We propose as a first contribution a method to share FPGA-based accelerators in cloud infrastructures having the objective to improve their utilization. As a second contribution we propose profiling methods to automate the selection of heterogeneous resources for executing applications under user objectives. Finally, we demonstrate how these technologies can be implemented and exploited in heterogeneous cloud platforms.
Advisors/Committee Members: Pierre, Guillaume (thesis director).
Subjects/Keywords: Informatique en nuage; Calcul distribué; Ressources hétérogènes; FPGA; Accélérateurs; Profilage; Application batch; Cloud computing; Distributed computing; Heterogeneous resources; FPGA; Accelerators; Performance profiling; Batch application
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Iordache, A. (2016). Performance-cost trade-offs in heterogeneous clouds : Compromis performance-coût dans les clouds hétérogènes. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2016REN1S045
Chicago Manual of Style (16th Edition):
Iordache, Ancuta. “Performance-cost trade-offs in heterogeneous clouds : Compromis performance-coût dans les clouds hétérogènes.” 2016. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2016REN1S045.
MLA Handbook (7th Edition):
Iordache, Ancuta. “Performance-cost trade-offs in heterogeneous clouds : Compromis performance-coût dans les clouds hétérogènes.” 2016. Web. 08 Dec 2019.
Vancouver:
Iordache A. Performance-cost trade-offs in heterogeneous clouds : Compromis performance-coût dans les clouds hétérogènes. [Internet] [Doctoral dissertation]. Rennes 1; 2016. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2016REN1S045.
Council of Science Editors:
Iordache A. Performance-cost trade-offs in heterogeneous clouds : Compromis performance-coût dans les clouds hétérogènes. [Doctoral Dissertation]. Rennes 1; 2016. Available from: http://www.theses.fr/2016REN1S045
4.
Yviquel, Hervé.
From dataflow-based video coding tools to dedicated embedded multi-core platforms : Depuis des outils de codage vidéo basés sur la programmation flux de données vers des plates-formes multi-coeur embarquées et dédiées.
Degree: Docteur es, Doctorat de l'université de Rennes1 mention informatique, 2013, Rennes 1
URL: http://www.theses.fr/2013REN1S095
► Le développement du multimédia, avec l'émergence des architectures parallèles, a ravivé l'intérêt de la programmation flux de données pour la conception de systèmes embarqués. En…
(more)
▼ Le développement du multimédia, avec l'émergence des architectures parallèles, a ravivé l'intérêt de la programmation flux de données pour la conception de systèmes embarqués. En effet, la programmation flux de données offre une approche de développement suffisamment flexible pour créer des applications complexes tout en exprimant la concurrence et le parallélisme explicitement. Paradoxalement, la plupart des études portent sur des modèles flux de données statiques, même si un processus de développement pragmatique nécessite l'expressivité et la practicité d'un langage de programmation basé sur un modèle flux de données dynamiques, comme le langage de programmation utilisé dans le cadre de Reconfigurable Video Coding. Dans cette thèse, nous décrivons un environnement de développement pour la programmation flux de données qui facilite le développement multimédia pour des plates-formes multi-coeur embarquées. Cet environnement de développement repose sur une architecture logicielle modulaire qui bénéficie de techniques modernes de génie logiciel telles que la méta modélisation et la programmation orientée aspect. Ensuite, nous développons une implémentation logicielle optimisée des programmes flux de données ciblant aussi bien les ordinateurs de bureau que les plates-formes embarquées. Notre implémentation vise à combler le fossé entre la practicité du langage de programmation et l'efficacité de son exécution. Enfin, nous présentons un ensemble d'algorithmes de projection et d'ordonnancement d'acteurs qui permettent l'exécution de programmes flux de données dynamiques sur des plates-formes multi-coeur avec des performances extensibles.
The development of multimedia technology, along with the emergence of parallel architectures, has revived the interest on dataflow programming for designing embedded systems. Indeed, dataflow programming offers a flexible development approach in order to build complex applications while expressing concurrency and parallelism explicitly. Paradoxically, most of the studies focus on static dataflow models of computation, even if a pragmatic development process requires the expressiveness and the practicality of a programming language based on dynamic dataflow models, such as the language included in the Reconfigurable Video Coding framework. In this thesis, we describe a complete development environment for dataflow programming that eases multimedia development for embedded multi-core platforms. This development environment is built upon a modular software architecture that benefits from modern software engineering techniques such as meta modeling and aspect-oriented programming. Then, we develop an optimized software implementation of dataflow programs targeting desktop and embedded multi-core platforms. Our implementation aims to bridge the gap between the practicality of the programming language and the efficiency of the execution. Finally, we present a set of runtime actors mapping/scheduling algorithms that enable the execution of dynamic dataflow programs over multi-core platforms…
Advisors/Committee Members: Casseau, Emmanuel (thesis director), Raulet, Mickaël (thesis director).
Subjects/Keywords: Informatique embarquée; Multimédia; Compression vidéo; Programmation parallèle (informatique); Embedded computing; Multimedia; Video compression; Parallel programming
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Yviquel, H. (2013). From dataflow-based video coding tools to dedicated embedded multi-core platforms : Depuis des outils de codage vidéo basés sur la programmation flux de données vers des plates-formes multi-coeur embarquées et dédiées. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2013REN1S095
Chicago Manual of Style (16th Edition):
Yviquel, Hervé. “From dataflow-based video coding tools to dedicated embedded multi-core platforms : Depuis des outils de codage vidéo basés sur la programmation flux de données vers des plates-formes multi-coeur embarquées et dédiées.” 2013. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2013REN1S095.
MLA Handbook (7th Edition):
Yviquel, Hervé. “From dataflow-based video coding tools to dedicated embedded multi-core platforms : Depuis des outils de codage vidéo basés sur la programmation flux de données vers des plates-formes multi-coeur embarquées et dédiées.” 2013. Web. 08 Dec 2019.
Vancouver:
Yviquel H. From dataflow-based video coding tools to dedicated embedded multi-core platforms : Depuis des outils de codage vidéo basés sur la programmation flux de données vers des plates-formes multi-coeur embarquées et dédiées. [Internet] [Doctoral dissertation]. Rennes 1; 2013. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2013REN1S095.
Council of Science Editors:
Yviquel H. From dataflow-based video coding tools to dedicated embedded multi-core platforms : Depuis des outils de codage vidéo basés sur la programmation flux de données vers des plates-formes multi-coeur embarquées et dédiées. [Doctoral Dissertation]. Rennes 1; 2013. Available from: http://www.theses.fr/2013REN1S095
5.
Hardy, Corentin.
Contribution au développement de l’apprentissage profond dans les systèmes distribués : Contribution to the development of deep learning in distributed systems.
Degree: Docteur es, Informatique, 2019, Rennes 1
URL: http://www.theses.fr/2019REN1S020
► L'apprentissage profond permet de développer un nombre de services de plus en plus important. Il nécessite cependant de grandes bases de données d'apprentissage et beaucoup…
(more)
▼ L'apprentissage profond permet de développer un nombre de services de plus en plus important. Il nécessite cependant de grandes bases de données d'apprentissage et beaucoup de puissance de calcul. Afin de réduire les coûts de cet apprentissage profond, nous proposons la mise en œuvre d'un apprentissage collaboratif. Les futures utilisateurs des services permis par l'apprentissage profond peuvent ainsi participer à celui-ci en mettant à disposition leurs machines ainsi que leurs données sans déplacer ces dernières sur le cloud. Nous proposons différentes méthodes afin d'apprendre des réseaux de neurones profonds dans ce contexte de système distribué.
Deep learning enables the development of a growing number of services. However, it requires large training databases and a lot of computing power. In order to reduce the costs of this deep learning, we propose a distributed computing setup to enable collaborative learning. Future users can participate with their devices and their data without moving private data in datacenters. We propose methods to train deep neural network in this distibuted system context.
Advisors/Committee Members: Sericola, Bruno (thesis director).
Subjects/Keywords: Réseaux de neurones profonds; Apprentissage automatique; Calcul distribué; Deep neural networks; Machine learning; Distributed computing
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Hardy, C. (2019). Contribution au développement de l’apprentissage profond dans les systèmes distribués : Contribution to the development of deep learning in distributed systems. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2019REN1S020
Chicago Manual of Style (16th Edition):
Hardy, Corentin. “Contribution au développement de l’apprentissage profond dans les systèmes distribués : Contribution to the development of deep learning in distributed systems.” 2019. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2019REN1S020.
MLA Handbook (7th Edition):
Hardy, Corentin. “Contribution au développement de l’apprentissage profond dans les systèmes distribués : Contribution to the development of deep learning in distributed systems.” 2019. Web. 08 Dec 2019.
Vancouver:
Hardy C. Contribution au développement de l’apprentissage profond dans les systèmes distribués : Contribution to the development of deep learning in distributed systems. [Internet] [Doctoral dissertation]. Rennes 1; 2019. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2019REN1S020.
Council of Science Editors:
Hardy C. Contribution au développement de l’apprentissage profond dans les systèmes distribués : Contribution to the development of deep learning in distributed systems. [Doctoral Dissertation]. Rennes 1; 2019. Available from: http://www.theses.fr/2019REN1S020
6.
Ndour, Geneviève.
Approximate computing for high energy-efficiency in IoT applications : Calcul approximatif à haute efficacité énergétique pour des applications de l'internet des objets.
Degree: Docteur es, Informatique, 2019, Rennes 1
URL: http://www.theses.fr/2019REN1S033
► Les unités à taille réduite font partie des méthodes proposées pour la réduction de la consommation d’énergie. Cependant, la plupart de ces unités sont évaluées…
(more)
▼ Les unités à taille réduite font partie des méthodes proposées pour la réduction de la consommation d’énergie. Cependant, la plupart de ces unités sont évaluées séparément,c’est-à-dire elles ne sont pas évaluées dans une application complète. Dans cette thèse, des unités à taille réduite pour le calcul et pour l’accès à la mémoire de données, configurables au moment de l’exécution, sont intégrées dans un processeur RISC-V. La réduction d’énergie et la qualité de sortie des applications exécutées sur le processeur RISC-V étendu avec ces unités, sont évaluées. Les résultats indiquent que la consommation d’énergie peut être réduite jusqu’à 14% pour une erreur ≤0.1%. De plus, nous avons proposé un modèle d’énergie générique qui inclut à la fois des paramètres logiciels et architecturaux. Le modèle permet aux concepteurs logiciels et matériels d’avoir un aperçu rapide sur l’impact des optimisations effectuées sur le code source et/ou sur les unités de calcul.
Reduced width units are ones of the power reduction methods. However such units have been mostly evaluated separately, i.e. not evaluated in a complete applications. In this thesis, we extend the RISC-V processor with reduced width computation and memory units, in which only a number of most significant bits (MSBs), configurable at runtime is active. The energy reduction vs quality of output trade-offs of applications executed with the extended RISC-V are studied. The results indicate that the energy can be reduced by up to 14% for an error ≤ 0.1%. Moreover we propose a generic energy model that includes both software parameters and hardware architecture ones. It allows software and hardware designers to have an early insight into the effects of optimizations on software and/or units.
Advisors/Committee Members: Tisserand, Arnaud (thesis director), Molnos, Anca (thesis director).
Subjects/Keywords: Unités à taille réduite; Réduction d’énergie; Calcul approximatif; Reduced width units; Energy reduction; Approximate computing
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Ndour, G. (2019). Approximate computing for high energy-efficiency in IoT applications : Calcul approximatif à haute efficacité énergétique pour des applications de l'internet des objets. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2019REN1S033
Chicago Manual of Style (16th Edition):
Ndour, Geneviève. “Approximate computing for high energy-efficiency in IoT applications : Calcul approximatif à haute efficacité énergétique pour des applications de l'internet des objets.” 2019. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2019REN1S033.
MLA Handbook (7th Edition):
Ndour, Geneviève. “Approximate computing for high energy-efficiency in IoT applications : Calcul approximatif à haute efficacité énergétique pour des applications de l'internet des objets.” 2019. Web. 08 Dec 2019.
Vancouver:
Ndour G. Approximate computing for high energy-efficiency in IoT applications : Calcul approximatif à haute efficacité énergétique pour des applications de l'internet des objets. [Internet] [Doctoral dissertation]. Rennes 1; 2019. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2019REN1S033.
Council of Science Editors:
Ndour G. Approximate computing for high energy-efficiency in IoT applications : Calcul approximatif à haute efficacité énergétique pour des applications de l'internet des objets. [Doctoral Dissertation]. Rennes 1; 2019. Available from: http://www.theses.fr/2019REN1S033
7.
Gruson, Adrien.
Toward more realism and robustness in global illumination : Vers plus de réalisme et de robustesse en simulation de l’éclairage global.
Degree: Docteur es, Informatique, 2015, Rennes 1
URL: http://www.theses.fr/2015REN1S059
► L'un des buts principaux de la synthèse d'image est de générer une image en adéquation avec les attentes de l’utilisateur. Pour ce faire, l'utilisateur doit…
(more)
▼ L'un des buts principaux de la synthèse d'image est de générer une image en adéquation avec les attentes de l’utilisateur. Pour ce faire, l'utilisateur doit passer par plusieurs étapes. La première, dite « Moteur de rendu », a pour but de simuler de façon précise les différentes interactions lumineuses avec les objets d'une scène 3D. A l'issue de cette étape, l'utilisateur aura à sa disposition une image décrite par des grandeurs photométriques. Ensuite, l'utilisateur procède à une seconde étape, dite « Post-production », où l'utilisateur effectue différents traitements sur l’image générée. Afin que l’image finale soit en adéquation avec les attentes de l’utilisateur, ce dernier peut modifier la scène 3D ou les différents paramètres utilisés par chaque étape. Les travaux de recherche menés dans le cadre de la thèse se sont focalisés sur deux axes principaux : l’accélération de la génération d'images de synthèse et le développement d'outils, proposés à l'utilisateur, lui permettant de satisfaire ses attentes. Concernant le premier axe, nous avons travaillé sur les techniques de synthèse d'image permettant de générer des images de synthèse de haute qualité. Ces techniques s’appuient, le plus souvent, sur un processus stochastique qui construit de façon aléatoire des chemins de lumière. Cependant, dans certains cas de figure, il est difficile de construire de façon efficace ces chemins. C'est le cas des milieux participants (fumée, feu, etc.) pour lesquels un grand nombre d'interactions lumière/matière doit être pris en compte, ce qui est très coûteux en temps de calcul. Pour réduire ces temps de calcul, nous proposons une adaptation d'une approche de rendu discrète exploitant la puissance de calcul des cartes graphiques. Cependant, comme ce genre de techniques présentent de nombreuses limitations, nous avons développé une seconde technique basée sur le trace de photon. Par ailleurs, dans des scènes complexes, il est difficile de trouver des chemins contributifs. Pour cette raison, nous avons utilisé une approche, basée sur Metropolis-Hasting, qui permet d'explorer localement l'espace des chemins contributifs. En revanche, avec ce type d'approche, il est difficile de contrôler la répartition de l'erreur sur le plan image. C'est pourquoi, nous proposons une nouvelle approche permettant de mieux répartir l'erreur relative sur le plan image. Dans le second axe de travail, nous nous sommes intéressés à l’étape de « Post-production ». En effet, nous avons développé une nouvelle technique d'estimation de l'illuminant de référence. Connaître cet illuminant est important lors d’opérations manipulant l'espace couleur utilisé. Enfin, nous proposons une technique capable de déterminer automatiquement la configuration des sources de lumière dans le but de générer une image répondant aux attentes de l'utilisateur.
One of the main goal in computer graphics is to generate an image that matches the user intent. To do that, the user has to go through several steps. The first step, named « Rendering engine », aims to precisely…
Advisors/Committee Members: Bouatouch, Kadi (thesis director), Cozot, Rémi (thesis director).
Subjects/Keywords: Informatique Graphique; Synthèse d'Image; Chaine de Markov; Monte Carlo; Esthetique; Balance des blancs; Computer Graphics; Global Illumination; Markov Chains; Monte Carlo; Aesthetics, White balancing
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Gruson, A. (2015). Toward more realism and robustness in global illumination : Vers plus de réalisme et de robustesse en simulation de l’éclairage global. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2015REN1S059
Chicago Manual of Style (16th Edition):
Gruson, Adrien. “Toward more realism and robustness in global illumination : Vers plus de réalisme et de robustesse en simulation de l’éclairage global.” 2015. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2015REN1S059.
MLA Handbook (7th Edition):
Gruson, Adrien. “Toward more realism and robustness in global illumination : Vers plus de réalisme et de robustesse en simulation de l’éclairage global.” 2015. Web. 08 Dec 2019.
Vancouver:
Gruson A. Toward more realism and robustness in global illumination : Vers plus de réalisme et de robustesse en simulation de l’éclairage global. [Internet] [Doctoral dissertation]. Rennes 1; 2015. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2015REN1S059.
Council of Science Editors:
Gruson A. Toward more realism and robustness in global illumination : Vers plus de réalisme et de robustesse en simulation de l’éclairage global. [Doctoral Dissertation]. Rennes 1; 2015. Available from: http://www.theses.fr/2015REN1S059
8.
Marques, Ricardo.
Bayesian and Quasi-Monte Carlo spherical integration for global illumination : Intégration sphérique Bayésien et Quasi-Monte Carlo pour l'illumination globale.
Degree: Docteur es, Informatique, 2013, Rennes 1
URL: http://www.theses.fr/2013REN1S132
► La qualité du résultat des opérations d’échantillonnage pour la synthèse d'images est fortement dépendante du placement et de la pondération des échantillons. C’est pourquoi plusieurs…
(more)
▼ La qualité du résultat des opérations d’échantillonnage pour la synthèse d'images est fortement dépendante du placement et de la pondération des échantillons. C’est pourquoi plusieurs travaux ont porté sur l’amélioration de l’échantillonnage purement aléatoire utilisée dans les techniques classiques de Monte Carlo. Leurs approches consistent à utiliser des séquences déterministes qui améliorent l’uniformité de la distribution des échantillons sur le domaine de l’intégration. L’estimateur résultant est alors appelé un estimateur de quasi-Monte Carlo (QMC).Dans cette thèse, nous nous focalisons sur le cas de l’échantillonnage pour l’intégration hémisphérique. Nous allons montrer que les approches existantes peuvent être améliorées en exploitant pleinement l’information disponible (par exemple, les propriétés statistiques de la fonction à intégrer) qui est ensuite utilisée pour le placement des échantillons et pour leur pondération.
The spherical sampling of the incident radiance function entails a high computational cost. Therefore the llumination integral must be evaluated using a limited set of samples. Such a restriction raises the question of how to obtain the most accurate approximation possible with such a limited set of samples. In this thesis, we show that existing Monte Carlo-based approaches can be improved by fully exploiting the information available which is later used for careful samples placement and weighting.The first contribution of this thesis is a strategy for producing high quality Quasi-Monte Carlo (QMC) sampling patterns for spherical integration by resorting to spherical Fibonacci point sets. We show that these patterns, when applied to the rendering integral, are very simple to generate and consistently outperform existing approaches. Furthermore, we introduce theoretical aspects on QMC spherical integration that, to our knowledge, have never been used in the graphics community, such as spherical cap discrepancy and point set spherical energy. These metrics allow assessing the quality of a spherical points set for a QMC estimate of a spherical integral.In the next part of the thesis, we propose a new heoretical framework for computing the Bayesian Monte Carlo quadrature rule. Our contribution includes a novel method of quadrature computation based on spherical Gaussian functions that can be generalized to a broad class of BRDFs (any BRDF which can be approximated sum of one or more spherical Gaussian functions) and potentially to other rendering applications. We account for the BRDF sharpness by using a new computation method for the prior mean function. Lastly, we propose a fast hyperparameters evaluation method that avoids the learning step.Our last contribution is the application of BMC with an adaptive approach for evaluating the illumination integral. The idea is to compute a first BMC estimate (using a first sample set) and, if the quality criterion is not met, directly inject the result as prior knowledge on a new estimate (using another sample set). The new estimate refines the…
Advisors/Committee Members: Bouatouch, Kadi (thesis director).
Subjects/Keywords: Informatique Graphique; Synthèse d'Image; Méthode de Quasi-Monte Carlo (QMC); Monte Carlo bayésien; Computer Graphics; Image Synthesis; Quasi-Monte Carlo Methods (QMC); Bayesian Monte Carlo
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Marques, R. (2013). Bayesian and Quasi-Monte Carlo spherical integration for global illumination : Intégration sphérique Bayésien et Quasi-Monte Carlo pour l'illumination globale. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2013REN1S132
Chicago Manual of Style (16th Edition):
Marques, Ricardo. “Bayesian and Quasi-Monte Carlo spherical integration for global illumination : Intégration sphérique Bayésien et Quasi-Monte Carlo pour l'illumination globale.” 2013. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2013REN1S132.
MLA Handbook (7th Edition):
Marques, Ricardo. “Bayesian and Quasi-Monte Carlo spherical integration for global illumination : Intégration sphérique Bayésien et Quasi-Monte Carlo pour l'illumination globale.” 2013. Web. 08 Dec 2019.
Vancouver:
Marques R. Bayesian and Quasi-Monte Carlo spherical integration for global illumination : Intégration sphérique Bayésien et Quasi-Monte Carlo pour l'illumination globale. [Internet] [Doctoral dissertation]. Rennes 1; 2013. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2013REN1S132.
Council of Science Editors:
Marques R. Bayesian and Quasi-Monte Carlo spherical integration for global illumination : Intégration sphérique Bayésien et Quasi-Monte Carlo pour l'illumination globale. [Doctoral Dissertation]. Rennes 1; 2013. Available from: http://www.theses.fr/2013REN1S132
9.
Guennec, David.
Study of unit selection text-to-speech synthesis algorithms : Étude des algorithmes de sélection d’unités pour la synthèse de la parole à partir du texte.
Degree: Docteur es, Informatique, 2016, Rennes 1
URL: http://www.theses.fr/2016REN1S055
► La synthèse de la parole par corpus (sélection d'unités) est le sujet principal de cette thèse. Tout d'abord, une analyse approfondie et un diagnostic de…
(more)
▼ La synthèse de la parole par corpus (sélection d'unités) est le sujet principal de cette thèse. Tout d'abord, une analyse approfondie et un diagnostic de l'algorithme de sélection d'unités (algorithme de recherche dans le treillis d'unités) sont présentés. L'importance de l'optimalité de la solution est discutée et une nouvelle mise en œuvre de la sélection basée sur un algorithme A* est présenté. Trois améliorations de la fonction de coût sont également présentées. La première est une nouvelle façon – dans le coût cible – de minimiser les différences spectrales en sélectionnant des séquences d'unités minimisant un coût moyen au lieu d'unités minimisant chacune un coût cible de manière absolue. Ce coût est testé pour une distance sur la durée phonémique mais peut être appliqué à d'autres distances. Notre deuxième proposition est une fonction de coût cible visant à améliorer l'intonation en se basant sur des coefficients extraits à travers une version généralisée du modèle de Fujisaki. Les paramètres de ces fonctions sont utilisés au sein d'un coût cible. Enfin, notre troisième contribution concerne un système de pénalités visant à améliorer le coût de concaténation. Il pénalise les unités en fonction de classes reposant sur une hiérarchie du degré de risque qu'un artefact de concaténation se produise lors de la concaténation sur un phone de cette classe. Ce système est différent des autres dans la littérature en cela qu'il est tempéré par une fonction floue capable d'adoucir le système de pénalités pour les unités présentant des coûts de concaténation parmi les plus bas de leur distribution.
This PhD thesis focuses on the automatic speech synthesis field, and more specifically on unit selection. A deep analysis and a diagnosis of the unit selection algorithm (lattice search algorithm) is provided. The importance of the solution optimality is discussed and a new unit selection implementation based on a A* algorithm is presented. Three cost function enhancements are also presented. The first one is a new way – in the target cost – to minimize important spectral differences by selecting sequences of candidate units that minimize a mean cost instead of an absolute one. This cost is tested on a phonemic duration distance but can be applied to others. Our second proposition is a target sub-cost addressing intonation that is based on coefficients extracted through a generalized version of Fujisaki's command-response model. This model features gamma functions modeling F0 called atoms. Finally, our third contribution concerns a penalty system that aims at enhancing the concatenation cost. It penalizes units in function of classes defining the risk a concatenation artifact occurs when concatenating on a phone of this class. This system is different to others in the literature in that it is tempered by a fuzzy function that allows to soften penalties for units presenting low concatenation costs.
Advisors/Committee Members: Lolive, Damien (thesis director).
Subjects/Keywords: Traitement automatique de la parole; Synthèse automatique de la parole; Concaténation; Synthèse Par Corpus; Speech Synthesis; Corpus-Based Speech Synthesis; Unit Selection; Graph Pathfinding Algorithm; Target Cost; Concatenation Cost
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Guennec, D. (2016). Study of unit selection text-to-speech synthesis algorithms : Étude des algorithmes de sélection d’unités pour la synthèse de la parole à partir du texte. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2016REN1S055
Chicago Manual of Style (16th Edition):
Guennec, David. “Study of unit selection text-to-speech synthesis algorithms : Étude des algorithmes de sélection d’unités pour la synthèse de la parole à partir du texte.” 2016. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2016REN1S055.
MLA Handbook (7th Edition):
Guennec, David. “Study of unit selection text-to-speech synthesis algorithms : Étude des algorithmes de sélection d’unités pour la synthèse de la parole à partir du texte.” 2016. Web. 08 Dec 2019.
Vancouver:
Guennec D. Study of unit selection text-to-speech synthesis algorithms : Étude des algorithmes de sélection d’unités pour la synthèse de la parole à partir du texte. [Internet] [Doctoral dissertation]. Rennes 1; 2016. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2016REN1S055.
Council of Science Editors:
Guennec D. Study of unit selection text-to-speech synthesis algorithms : Étude des algorithmes de sélection d’unités pour la synthèse de la parole à partir du texte. [Doctoral Dissertation]. Rennes 1; 2016. Available from: http://www.theses.fr/2016REN1S055
10.
Bourrier, Anthony.
Compressed sensing and dimensionality reduction for unsupervised learning : Échantillonnage compressé et réduction de dimension pour l'apprentissage non supervisé.
Degree: Docteur es, Traitement du signal et télécommunications, 2014, Rennes 1
URL: http://www.theses.fr/2014REN1S023
► Cette thèse est motivée par la perspective de rapprochement entre traitement du signal et apprentissage statistique, et plus particulièrement par l'exploitation de techniques d'échantillonnage compressé…
(more)
▼ Cette thèse est motivée par la perspective de rapprochement entre traitement du signal et apprentissage statistique, et plus particulièrement par l'exploitation de techniques d'échantillonnage compressé afin de réduire le coût de tâches d'apprentissage. Après avoir rappelé les bases de l'échantillonnage compressé et mentionné quelques techniques d'analyse de données s'appuyant sur des idées similaires, nous proposons un cadre de travail pour l'estimation de paramètres de mélange de densités de probabilité dans lequel les données d'entraînement sont compressées en une représentation de taille fixe. Nous instancions ce cadre sur un modèle de mélange de Gaussiennes isotropes. Cette preuve de concept suggère l'existence de garanties théoriques de reconstruction d'un signal pour des modèles allant au-delà du modèle parcimonieux usuel de vecteurs. Nous étudions ainsi dans un second temps la généralisation de résultats de stabilité de problèmes inverses linéaires à des modèles tout à fait généraux de signaux. Nous proposons des conditions sous lesquelles des garanties de reconstruction peuvent être données dans un cadre général. Enfin, nous nous penchons sur un problème de recherche approchée de plus proche voisin avec calcul de signature des vecteurs afin de réduire la complexité. Dans le cadre où la distance d'intérêt dérive d'un noyau de Mercer, nous proposons de combiner un plongement explicite des données suivi d'un calcul de signatures, ce qui aboutit notamment à une recherche approchée plus précise.
This thesis is motivated by the perspective of connecting compressed sensing and machine learning, and more particularly by the exploitation of compressed sensing techniques to reduce the cost of learning tasks. After a reminder of compressed sensing and a quick description of data analysis techniques in which similar ideas are exploited, we propose a framework for estimating probability density mixture parameters in which the training data is compressed into a fixed-size representation. We instantiate this framework on an isotropic Gaussian mixture model. This proof of concept suggests the existence of theoretical guarantees for reconstructing signals belonging to models beyond usual sparse models. We therefore study generalizations of stability results for linear inverse problems for very general models of signals. We propose conditions under which reconstruction guarantees can be given in a general framework. Finally, we consider an approximate nearest neighbor search problem exploiting signatures of the database vectors in order to save resources during the search step. In the case where the considered distance derives from a Mercer kernel, we propose to combine an explicit embedding of data followed by a signature computation step, which principally leads to a more accurate approximate search.
Advisors/Committee Members: Gribonval, Rémi (thesis director).
Subjects/Keywords: Traitement du signal; Apprentissage compressé; Signal processing; Compressed sensing
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Bourrier, A. (2014). Compressed sensing and dimensionality reduction for unsupervised learning : Échantillonnage compressé et réduction de dimension pour l'apprentissage non supervisé. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2014REN1S023
Chicago Manual of Style (16th Edition):
Bourrier, Anthony. “Compressed sensing and dimensionality reduction for unsupervised learning : Échantillonnage compressé et réduction de dimension pour l'apprentissage non supervisé.” 2014. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2014REN1S023.
MLA Handbook (7th Edition):
Bourrier, Anthony. “Compressed sensing and dimensionality reduction for unsupervised learning : Échantillonnage compressé et réduction de dimension pour l'apprentissage non supervisé.” 2014. Web. 08 Dec 2019.
Vancouver:
Bourrier A. Compressed sensing and dimensionality reduction for unsupervised learning : Échantillonnage compressé et réduction de dimension pour l'apprentissage non supervisé. [Internet] [Doctoral dissertation]. Rennes 1; 2014. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2014REN1S023.
Council of Science Editors:
Bourrier A. Compressed sensing and dimensionality reduction for unsupervised learning : Échantillonnage compressé et réduction de dimension pour l'apprentissage non supervisé. [Doctoral Dissertation]. Rennes 1; 2014. Available from: http://www.theses.fr/2014REN1S023
11.
Gudmunsson, Gylfi Thor.
Parallelism and distribution for very large scale content-based image retrieval : Parallélisme et distribution pour des bases d'images à très grande échelle.
Degree: Docteur es, Informatique, 2013, Rennes 1
URL: http://www.theses.fr/2013REN1S082
► Les volumes de données multimédia ont fortement crus ces dernières années. Facebook stocke plus de 100 milliards d'images, 200 millions sont ajoutées chaque jour. Cela…
(more)
▼ Les volumes de données multimédia ont fortement crus ces dernières années. Facebook stocke plus de 100 milliards d'images, 200 millions sont ajoutées chaque jour. Cela oblige les systèmes de recherche d'images par le contenu à s'adapter pour fonctionner à ces échelles. Les travaux présentés dans ce manuscrit vont dans cette direction. Deux observations essentielles cadrent nos travaux. Premièrement, la taille des collections d'images est telle, plusieurs téraoctets, qu'il nous faut obligatoirement prendre en compte les contraintes du stockage secondaire. Cet aspect est central. Deuxièmement, tous les processeurs sont maintenant multi-cœurs et les grilles de calcul largement disponibles. Du coup, profiter de parallélisme et de distribution semble naturel pour accélérer tant la construction de la base que le débit des recherches par lots. Cette thèse décrit une technique d'indexation multidimensionnelle s'appelant eCP. Sa conception prend en compte les contraintes issues de l'usage de disques et d'architectures parallèles et distribuées. eCP se fonde sur la technique de quantification vectorielle non structurée et non itérative. eCP s'appuie sur une technique de l'état de l'art qui est toutefois orientée mémoire centrale. Notre première contribution se compose d'extensions destinées à permettre de traiter de très larges collections de données en réduisant fortement le coût de l'indexation et en utilisant les disques au mieux. La seconde contribution tire profit des architectures multi-cœurs et détaille comment paralléliser l'indexation et la recherche. Nous évaluons cet apport sur près de 25 millions d'images, soit près de 8 milliards de descripteurs SIFT. La troisième contribution aborde l'aspect distribué. Nous adaptons eCP au paradigme Map-Reduce et nous utilisons Hadoop pour en évaluer les performances. Là, nous montrons la capacité de eCP à traiter de grandes bases en indexant plus de 100 millions d'images, soit 30 milliards de SIFT. Nous montrons aussi la capacité de eCP à utiliser plusieurs centaines de cœurs.
The scale of multimedia collections has grown very fast over the last few years. Facebook stores more than 100 billion images, 200 million are added every day. In order to cope with this growth, methods for content-based image retrieval must adapt gracefully. The work presented in this thesis goes in this direction. Two observations drove the design of the high-dimensional indexing technique presented here. Firstly, the collections are so huge, typically several terabytes, that they must be kept on secondary storage. Addressing disk related issues is thus central to our work. Secondly, all CPUs are now multi-core and clusters of machines are a commonplace. Parallelism and distribution are both key for fast indexing and high-throughput batch-oriented searching. We describe in this manuscript a high-dimensional indexing technique called eCP. Its design includes the constraints associated to using disks, parallelism and distribution. At its core is an non-iterative unstructured vectorial quantization…
Advisors/Committee Members: Gros, Patrick (thesis director), Amsaleg, Laurent (thesis director).
Subjects/Keywords: Indexation automatique; Parallélisme (informatique); Automatic indexing; Parallel processing (Electronic computers)
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Gudmunsson, G. T. (2013). Parallelism and distribution for very large scale content-based image retrieval : Parallélisme et distribution pour des bases d'images à très grande échelle. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2013REN1S082
Chicago Manual of Style (16th Edition):
Gudmunsson, Gylfi Thor. “Parallelism and distribution for very large scale content-based image retrieval : Parallélisme et distribution pour des bases d'images à très grande échelle.” 2013. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2013REN1S082.
MLA Handbook (7th Edition):
Gudmunsson, Gylfi Thor. “Parallelism and distribution for very large scale content-based image retrieval : Parallélisme et distribution pour des bases d'images à très grande échelle.” 2013. Web. 08 Dec 2019.
Vancouver:
Gudmunsson GT. Parallelism and distribution for very large scale content-based image retrieval : Parallélisme et distribution pour des bases d'images à très grande échelle. [Internet] [Doctoral dissertation]. Rennes 1; 2013. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2013REN1S082.
Council of Science Editors:
Gudmunsson GT. Parallelism and distribution for very large scale content-based image retrieval : Parallélisme et distribution pour des bases d'images à très grande échelle. [Doctoral Dissertation]. Rennes 1; 2013. Available from: http://www.theses.fr/2013REN1S082
12.
Khalid, Musaab.
Analyse de vidéos de cours d'eau pour l'estimation de la vitesse surfacique : Analysis of water flows videos for surface velocityestimation.
Degree: Docteur es, Signal, Image, Vision, 2018, Rennes 1
URL: http://www.theses.fr/2018REN1S019
► Dans cette thèse, on s’intéresse à l’application du domaine de la vision par ordinateur à la vélocimétrie de surface des rivières. Les hydrauliciens utilisent déjà…
(more)
▼ Dans cette thèse, on s’intéresse à l’application du domaine de la vision par ordinateur à la vélocimétrie de surface des rivières. Les hydrauliciens utilisent déjà plusieurs routines de traitement d’images pour traiter des vidéos de rivières. Le but ultime est d’estimer la vitesse surfacique d’un cours d’eau par une méthode sans contact. Cela permet aux chercheurs d’éviter les risques liés au jaugeage intrusif des rivières, notamment en période de crue. Dans ce but, deux enjeux sont à prendre en compte. Tout d’abord, le mouvement apparent de la rivière dans l’espace image doit être estimé. Ensuite, ce mouvement, estimé en pixels par unité de temps, doit être transformé en une vitesse réelle exprimée en mètres par seconde par exemple. Jusqu’au présent, les méthodes de vélocimétrie par images imposent quelques contraintes sur les séquences pour qu’elles soient exploitables (notamment une caméra fixe et le besoin de la présence physique des équipes hydrauliques au site de jaugeage avant ou après l’événement). Dans cette thèse, on vise à élargir ce périmètre en incluant les vidéos prises par des amateurs (c’est à dire de paramètres inconnus, et avec un mouvement potentiel de la caméra) tout en présentant de meilleures solutions pour les enjeux précédemment mentionnés.
This thesis is an application of computer vision findings to river velocimetry research. Hydraulic research scientists already use various image processing techniques to process image sequences of rivers. The ultimate goal is to estimate free surface velocity of rivers remotely. As such, many risks related to intrusive river gauging techniques could be avoided. Towards this goal, there are two major issues need be addressed. Firstly, the motion of the river in image space need to be estimated. The second issue is related to how to transform this image velocity to real world velocity. Until recently, imagebased velocimetry methods impose many requirements on images and still need considerable amount of field work to be able to estimate rivers velocity with good accuracy. We extend the perimeter of this field by including amateur videos of rivers and we provide better solutions for the aforementioned issues. We propose a motion estimation model that is based on the so-called optical flow, which is a well developed method for rigid motion estimation in image sequences. Contrary to conventional techniques used before, optical flow formulation is flexible enough to incorporate physics equations that govern rivers motion. Our optical flow is based on the scalar transport equation and is augmented with a weighted diffusion term to compensate for small scale (non-captured) contributions. Additionally, since there is no ground truth data for such type of image sequences, we present a new evaluation method to assess the results. It is based on trajectory reconstruction of few Lagrangian particles of interest and a direct comparison against their manually-reconstructed trajectories. The new motion estimation technique outperformed traditional methods in image…
Advisors/Committee Members: Mémin, Étienne (thesis director).
Subjects/Keywords: Mesures optiques; Traitement d'images; Optical measurements; Image processing
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Khalid, M. (2018). Analyse de vidéos de cours d'eau pour l'estimation de la vitesse surfacique : Analysis of water flows videos for surface velocityestimation. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2018REN1S019
Chicago Manual of Style (16th Edition):
Khalid, Musaab. “Analyse de vidéos de cours d'eau pour l'estimation de la vitesse surfacique : Analysis of water flows videos for surface velocityestimation.” 2018. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2018REN1S019.
MLA Handbook (7th Edition):
Khalid, Musaab. “Analyse de vidéos de cours d'eau pour l'estimation de la vitesse surfacique : Analysis of water flows videos for surface velocityestimation.” 2018. Web. 08 Dec 2019.
Vancouver:
Khalid M. Analyse de vidéos de cours d'eau pour l'estimation de la vitesse surfacique : Analysis of water flows videos for surface velocityestimation. [Internet] [Doctoral dissertation]. Rennes 1; 2018. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2018REN1S019.
Council of Science Editors:
Khalid M. Analyse de vidéos de cours d'eau pour l'estimation de la vitesse surfacique : Analysis of water flows videos for surface velocityestimation. [Doctoral Dissertation]. Rennes 1; 2018. Available from: http://www.theses.fr/2018REN1S019
13.
Ariyattu, Resmi.
Towards federated social infrastructures for plug-based decentralized social networks : Vers des infrastructures sociales fédérées pour des réseaux sociaux décentralisés à base d'ordinateurs contraints.
Degree: Docteur es, Informatique, 2017, Rennes 1
URL: http://www.theses.fr/2017REN1S031
► Dans cette thèse, nous abordons deux problèmes soulevés par les systèmes distribués décentralisés - le placement de réseaux logiques de façon compatible avec le réseau…
(more)
▼ Dans cette thèse, nous abordons deux problèmes soulevés par les systèmes distribués décentralisés - le placement de réseaux logiques de façon compatible avec le réseau physique sous-jacent et la construction de cohortes d'éditeurs pour dans les systèmes d'édition collaborative. Bien que les réseaux logiques (overlay networks) été largement étudiés, la plupart des systèmes existant ne prennent pas ou prennent mal en compte la topologie du réseau physique sous-jacent, alors que la performance de ces systèmes dépend dans une grande mesure de la manière dont leur topologie logique exploite la localité présente dans le réseau physique sur lequel ils s'exécutent. Pour résoudre ce problème, nous proposons dans cette thèse Fluidify, un mécanisme décentralisé pour le déploiement d'un réseau logique sur une infrastructure physique qui cherche à maximiser la localité du déploiement. Fluidify utilise une stratégie double qui exploite à la fois les liaisons logiques d'un réseau applicatif et la topologie physique de son réseau sous-jacent pour aligner progressivement l'une avec l'autre. Le protocole résultant est générique, efficace, évolutif et peut améliorer considérablement les performances de l'ensemble. La deuxième question que nous abordons traite des plates-formes d'édition collaborative. Ces plates-formes permettent à plusieurs utilisateurs distants de contribuer simultanément au même document. Seuls un nombre limité d'utilisateurs simultanés peuvent être pris en charge par les éditeurs actuellement déployés. Un certain nombre de solutions pair-à-pair ont donc été proposées pour supprimer cette limitation et permettre à un grand nombre d'utilisateurs de collaborer sur un même document sans aucune coordination centrale. Ces plates-formes supposent cependant que tous les utilisateurs d'un système éditent le même jeu de document, ce qui est peu vraisemblable. Pour ouvrir la voie à des systèmes plus flexibles, nous présentons, Filament, un protocole décentralisé de construction de cohorte adapté aux besoins des grands éditeurs collaboratifs. Filament élimine la nécessité de toute table de hachage distribuée (DHT) intermédiaire et permet aux utilisateurs travaillant sur le même document de se retrouver d'une manière rapide, efficace et robuste en générant un champ de routage adaptatif autour d'eux-mêmes. L'architecture de Filament repose sur un ensemble de réseaux logiques auto-organisées qui exploitent les similarités entre jeux de documents édités par les utilisateurs. Le protocole résultant est efficace, évolutif et fournit des propriétés bénéfiques d'équilibrage de charge sur les pairs impliqués.
In this thesis, we address two issues in the area of decentralized distributed systems: network-aware overlays and collaborative editing. Even though network overlays have been extensively studied, most solutions either ignores the underlying physical network topology, or uses mechanisms that are specific to a given platform or applications. This is problematic, as the performance of an overlay network strongly depends on the…
Advisors/Committee Members: Taïani, François (thesis director).
Subjects/Keywords: Systèmes distribués; Édition collaborative; Informatique en nuage; Réseaux logiques; Distributed systems; Overlay networks; Collaborative editing; Cloud computing
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Ariyattu, R. (2017). Towards federated social infrastructures for plug-based decentralized social networks : Vers des infrastructures sociales fédérées pour des réseaux sociaux décentralisés à base d'ordinateurs contraints. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2017REN1S031
Chicago Manual of Style (16th Edition):
Ariyattu, Resmi. “Towards federated social infrastructures for plug-based decentralized social networks : Vers des infrastructures sociales fédérées pour des réseaux sociaux décentralisés à base d'ordinateurs contraints.” 2017. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2017REN1S031.
MLA Handbook (7th Edition):
Ariyattu, Resmi. “Towards federated social infrastructures for plug-based decentralized social networks : Vers des infrastructures sociales fédérées pour des réseaux sociaux décentralisés à base d'ordinateurs contraints.” 2017. Web. 08 Dec 2019.
Vancouver:
Ariyattu R. Towards federated social infrastructures for plug-based decentralized social networks : Vers des infrastructures sociales fédérées pour des réseaux sociaux décentralisés à base d'ordinateurs contraints. [Internet] [Doctoral dissertation]. Rennes 1; 2017. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2017REN1S031.
Council of Science Editors:
Ariyattu R. Towards federated social infrastructures for plug-based decentralized social networks : Vers des infrastructures sociales fédérées pour des réseaux sociaux décentralisés à base d'ordinateurs contraints. [Doctoral Dissertation]. Rennes 1; 2017. Available from: http://www.theses.fr/2017REN1S031
14.
Stainer, Julien.
Computability Abstractions for Fault-tolerant Asynchronous Distributed Computing : Abstractions pour la calculabilité dans les systèmes répartis asynchrones tolérant les défaillances.
Degree: Docteur es, Informatique, 2015, Rennes 1
URL: http://www.theses.fr/2015REN1S054
► Cette thèse étudie ce qui peut-être calculé dans des systèmes composés de multiple ordinateurs communicant par messages ou partageant de la mémoire. Les modèles considérés…
(more)
▼ Cette thèse étudie ce qui peut-être calculé dans des systèmes composés de multiple ordinateurs communicant par messages ou partageant de la mémoire. Les modèles considérés prennent en compte la possibilité de défaillance d'une partie de ces ordinateurs ainsi que la variabilité et l'hétérogénéité de leurs vitesses d'exécution. Les résultats présentés considèrent principalement les problèmes d'accord, les systèmes sujets au partitionnement et les détecteurs de fautes. Ce document établis des relations entre les modèles itérés connus et la notion de détecteur de fautes. Il présente une hiérarchie de problèmes généralisant l'accord k-ensembliste et le consensus s-simultané. Une nouvelle construction universelle basée sur des objets consensus s-simultané ainsi qu'une famille de modèles itérés autorisant plusieurs processus à s'exécuter en isolation sont introduites.
This thesis studies computability in systems composed of multiple computers exchanging messages or sharing memory. The considered models take into account the possible failure of some of these computers, as well as variations in time and heterogeneity of their execution speeds. The presented results essentially consider agreement problems, systems prone to partitioning and failure detectors. The document establishes relations between known iterated models and the concept of failure detector and presents a hierarchy of agreement problems spanning from k-set agreement to s-simultaneous consensus. It also introduces a new universal construction based on s-simultaneous consensus objects and a family of iterated models allowing several processes to run in isolation.
Advisors/Committee Members: Raynal, Michel (thesis director).
Subjects/Keywords: Informatique répartie; Calculabilité; Tolérance aux défaillance; Asynchronie; Détecteurs de fautes; Distributed Computing; Computability; Fault-Tolerance; Asynchrony; Failure Detectors
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Stainer, J. (2015). Computability Abstractions for Fault-tolerant Asynchronous Distributed Computing : Abstractions pour la calculabilité dans les systèmes répartis asynchrones tolérant les défaillances. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2015REN1S054
Chicago Manual of Style (16th Edition):
Stainer, Julien. “Computability Abstractions for Fault-tolerant Asynchronous Distributed Computing : Abstractions pour la calculabilité dans les systèmes répartis asynchrones tolérant les défaillances.” 2015. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2015REN1S054.
MLA Handbook (7th Edition):
Stainer, Julien. “Computability Abstractions for Fault-tolerant Asynchronous Distributed Computing : Abstractions pour la calculabilité dans les systèmes répartis asynchrones tolérant les défaillances.” 2015. Web. 08 Dec 2019.
Vancouver:
Stainer J. Computability Abstractions for Fault-tolerant Asynchronous Distributed Computing : Abstractions pour la calculabilité dans les systèmes répartis asynchrones tolérant les défaillances. [Internet] [Doctoral dissertation]. Rennes 1; 2015. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2015REN1S054.
Council of Science Editors:
Stainer J. Computability Abstractions for Fault-tolerant Asynchronous Distributed Computing : Abstractions pour la calculabilité dans les systèmes répartis asynchrones tolérant les défaillances. [Doctoral Dissertation]. Rennes 1; 2015. Available from: http://www.theses.fr/2015REN1S054
15.
Rodriguez Cancio, Marcelino.
Contributions on approximate computing techniques and how to measure them : Contributions sur les techniques de computation approximée et comment les mesurer.
Degree: Docteur es, Informatique, 2017, Rennes 1
URL: http://www.theses.fr/2017REN1S071
► La Computation Approximée est basée dans l'idée que des améliorations significatives de l'utilisation du processeur, de l'énergie et de la mémoire peuvent être réalisées, lorsque…
(more)
▼ La Computation Approximée est basée dans l'idée que des améliorations significatives de l'utilisation du processeur, de l'énergie et de la mémoire peuvent être réalisées, lorsque de faibles niveaux d'imprécision peuvent être tolérés. C'est un concept intéressant, car le manque de ressources est un problème constant dans presque tous les domaines de l'informatique. Des grands superordinateurs qui traitent les big data d'aujourd'hui sur les réseaux sociaux, aux petits systèmes embarqués à contrainte énergétique, il y a toujours le besoin d'optimiser la consommation de ressources. La Computation Approximée propose une alternative à cette rareté, introduisant la précision comme une autre ressource qui peut à son tour être échangée par la performance, la consommation d'énergie ou l'espace de stockage. La première partie de cette thèse propose deux contributions au domaine de l'informatique approximative: Aproximate Loop Unrolling : optimisation du compilateur qui exploite la nature approximative des données de séries chronologiques et de signaux pour réduire les temps d'exécution et la consommation d'énergie des boucles qui le traitent. Nos expériences ont montré que l'optimisation augmente considérablement les performances et l'efficacité énergétique des boucles optimisées (150% - 200%) tout en préservant la précision à des niveaux acceptables. Primer: le premier algorithme de compression avec perte pour les instructions de l'assembleur, qui profite des zones de pardon des programmes pour obtenir un taux de compression qui surpasse techniques utilisées actuellement jusqu'à 10%. L'objectif principal de la Computation Approximée est d'améliorer l'utilisation de ressources, telles que la performance ou l'énergie. Par conséquent, beaucoup d'efforts sont consacrés à l'observation du bénéfice réel obtenu en exploitant une technique donnée à l'étude. L'une des ressources qui a toujours été difficile à mesurer avec précision, est le temps d'exécution. Ainsi, la deuxième partie de cette thèse propose l'outil suivant : AutoJMH : un outil pour créer automatiquement des microbenchmarks de performance en Java. Microbenchmarks fournissent l'évaluation la plus précis de la performance. Cependant, nécessitant beaucoup d'expertise, il subsiste un métier de quelques ingénieurs de performance. L'outil permet (grâce à l'automatisation) l'adoption de microbenchmark par des non-experts. Nos résultats montrent que les microbencharks générés, correspondent à la qualité des manuscrites par des experts en performance. Aussi ils surpassent ceux écrits par des développeurs professionnels dans Java sans expérience en microbenchmarking.
Approximate Computing is based on the idea that significant improvements in CPU, energy and memory usage can be achieved when small levels of inaccuracy can be tolerated. This is an attractive concept, since the lack of resources is a constant problem in almost all computer science domains. From large super-computers processing today’s social media big data, to small, energy-constraint embedded systems, there is…
Advisors/Committee Members: Baudry, Benoit (thesis director), Combemale, Benoît (thesis director).
Subjects/Keywords: Computation Approximée; Optimisation des compilateurs; Diversité logicielle; Compression avec perte; Microbenchmark; Approximate computing; Compiler optimizations; Software diversity; Lossy compression; Microbenchmark
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Rodriguez Cancio, M. (2017). Contributions on approximate computing techniques and how to measure them : Contributions sur les techniques de computation approximée et comment les mesurer. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2017REN1S071
Chicago Manual of Style (16th Edition):
Rodriguez Cancio, Marcelino. “Contributions on approximate computing techniques and how to measure them : Contributions sur les techniques de computation approximée et comment les mesurer.” 2017. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2017REN1S071.
MLA Handbook (7th Edition):
Rodriguez Cancio, Marcelino. “Contributions on approximate computing techniques and how to measure them : Contributions sur les techniques de computation approximée et comment les mesurer.” 2017. Web. 08 Dec 2019.
Vancouver:
Rodriguez Cancio M. Contributions on approximate computing techniques and how to measure them : Contributions sur les techniques de computation approximée et comment les mesurer. [Internet] [Doctoral dissertation]. Rennes 1; 2017. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2017REN1S071.
Council of Science Editors:
Rodriguez Cancio M. Contributions on approximate computing techniques and how to measure them : Contributions sur les techniques de computation approximée et comment les mesurer. [Doctoral Dissertation]. Rennes 1; 2017. Available from: http://www.theses.fr/2017REN1S071
16.
Sinha, Arnab.
Self-describing objects with tangible data structures : Objets intelligents avec des données tangibles.
Degree: Docteur es, Informatique, 2014, Rennes 1
URL: http://www.theses.fr/2014REN1S024
► En informatique ubiquitaire, l'observation du monde physique et de son "contexte" (une représentation haut niveau de la situation physique) est essentielle. Il existe de nombreux…
(more)
▼ En informatique ubiquitaire, l'observation du monde physique et de son "contexte" (une représentation haut niveau de la situation physique) est essentielle. Il existe de nombreux moyens pour observer le contexte. Typiquement, cela consiste en un traitement en plusieurs étapes commençant par la récupération de données brutes issues de capteurs. Diverses technologies de capteurs sont utilisées pour la récupération d'informations de bas niveau sur les activités physiques en cours. Ces données sont ensuite rassemblées, analysées et traitées ailleurs dans les systèmes d'information afin d'offrir une reconnaissance de contexte. Les applications déployées réagissent alors en fonction du contexte/de la situation détecté(e). Parmis les capteurs utilisés, les tags RFID, une technologie émergente, permettent de créer un lien virtuel direct entre les objets physiques et les systèmes d'information. En plus de stocker des identifiants, ils offrent un espace mémoire générique aux objets auxquels ils sont attachés, offrant de nouvelles possibilités d'architectures en informatique omniprésente. Dans cette thèse, nous proposons une approche originale tirant parti de l'espace mémoire offerts aux objets réels par les tags RFID. Dans notre approche, les objets supportent directement le système d'information. Ce type d'intégration permet de réduire les communications requises par le traitement à distance. Pour ce faire, des données sémantiques sont tout d'abord attachées aux objets afin de les rendre auto-descriptifs. Ainsi, les données pertinentes concernant une entité physique sont directement disponibles pour un traitement local. Les objets peuvent ensuite être liés virtuellement grâce à des structures de données dédiées ou ad hoc et distribuées sur les objets eux-mêmes. Ce faisant, le traitement des données peut se faire de façon directe. Par exemple, certaines propriétés peuvent être vérifiées localement sur un ensemble d'objets. Une relation physique peut être déduite directement de la structure de données, d'où le nom de "structures de données tangibles". Vis-à-vis des approches conventionnelles tirant parti des identifiants, notre approche offrent des avantages en termes de vie privée, de mise à l'échelle, d'autonomie et d'indépendance vis-à-vis des infrastructures. Le défi se situe au niveau de son expressivité limitée à cause du faible espace mémoire disponible sur les tags RFID. Les principes sont validés dans deux prototypes aux applications différentes. Le premier prototype est développé dans le domaine de la gestion de déchets afin d'aider le tri et d'améliorer le recyclage. Le deuxième offre des services supplémentaires, tels qu'une assistance lors du montage et de la vérification d'objets composés de plusieurs parties, grâce aux structures de données distribuées sur les différentes parties.
Pervasive computing or ambient computing aims to integrate information systems into the environment, in a manner as transparent as possible to the users. It allows the information systems to be tightly coupled with the physical…
Advisors/Committee Members: Banâtre, Michel (thesis director), Couderc, Paul (thesis director).
Subjects/Keywords: Informatique diffuse; Environnements intelligents; Structures de données distribuées; Rfid; Pervasive computing; Context awareness; Distributed data structure; Rfid
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Sinha, A. (2014). Self-describing objects with tangible data structures : Objets intelligents avec des données tangibles. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2014REN1S024
Chicago Manual of Style (16th Edition):
Sinha, Arnab. “Self-describing objects with tangible data structures : Objets intelligents avec des données tangibles.” 2014. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2014REN1S024.
MLA Handbook (7th Edition):
Sinha, Arnab. “Self-describing objects with tangible data structures : Objets intelligents avec des données tangibles.” 2014. Web. 08 Dec 2019.
Vancouver:
Sinha A. Self-describing objects with tangible data structures : Objets intelligents avec des données tangibles. [Internet] [Doctoral dissertation]. Rennes 1; 2014. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2014REN1S024.
Council of Science Editors:
Sinha A. Self-describing objects with tangible data structures : Objets intelligents avec des données tangibles. [Doctoral Dissertation]. Rennes 1; 2014. Available from: http://www.theses.fr/2014REN1S024
17.
Costache, Stefania.
Market-based autonomous and elastic application execution on clouds : Gestion autonome des ressources et des applications dans un nuage informatique selon une approche fondée sur un marché.
Degree: Docteur es, Informatique, 2013, Rennes 1
URL: http://www.theses.fr/2013REN1S113
► Les organisations possédant des infrastructures pour le calcul à haute performance rencontrent des difficultés dans la gestion de leurs ressources. Ces difficultés sont dues au…
(more)
▼ Les organisations possédant des infrastructures pour le calcul à haute performance rencontrent des difficultés dans la gestion de leurs ressources. Ces difficultés sont dues au fait que des applications de différents types doivent pouvoir accéder concurremment aux ressources tandis que les utilisateurs peuvent avoir des objectifs de performance variés pour leurs applications. Les nuages informatiques apportent plus de flexibilité et un meilleur contrôle des ressources qui laissent espérer une amélioration de la satisfaction des utilisateurs en terme de qualité de service perçue. Cependant, les solutions de nuage informatique actuelles fournissent un support limité aux utilisateurs pour l'expression ou l'utilisation de politiques de gestion de ressources et elles n'offrent aucun support pour atteindre les objectifs de performance des applications. Dans cette thèse, nous présentons une approche qui aborde ce défi d'une manière unique. Notre approche offre un contrôle des ressources complètement décentralisé en allouant des ressources à travers un marché à pourcentage proportionnel tandis que les applications s'exécutent dans des environnements virtuels autonomes capable d'ajuster la demande de l'application selon les objectifs de performance définis par l'utilisateur. La combinaison de la politique de distribution de la monnaie et de la variation dynamique du prix des ressources assure une utilisation des ressources équitable. Nous avons évalué notre approche en simulation et expérimentalement sur la plate-forme Grid'5000. Nos résultats montrent que notre approche peut permettre la cohabitation des différentes politiques d'utilisation des ressources sur l'infrastructure, tout en améliorant l'utilisation des ressources.
Organizations owning HPC infrastructures are facing difficulties in managing their resources. These difficulties come from the need to provide concurrent resource access to different application types while considering that users might have different performance objectives for their applications. Cloud computing brings more flexibility and better resource control, promising to improve the user’s satisfaction in terms of perceived Quality of Service. Nevertheless, current cloud solutions provide limited support for users to express or use various resource management policies and they don't provide any support for application performance objectives.In this thesis, we present an approach that addresses this challenge in an unique way. Our approach provides a fully decentralized resource control by allocating resources through a proportional-share market, while applications run in autonomous virtual environments capable of scaling the application demand according to user performance objectives.The combination of currency distribution and dynamic resource pricing ensures fair resource utilization.We evaluated our approach in simulation and on the Grid'5000 testbed. Our results show that our approach can enable the co-habitation of different resource usage policies on the infrastructure, improving resource…
Advisors/Committee Members: Morin, Christine (thesis director), Kortas, Samuel (thesis director).
Subjects/Keywords: Gestion des ressources; Nuage (informatique); Système autonome; Cloud computing; Resource management; Autonomous systems; Market-based management
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Costache, S. (2013). Market-based autonomous and elastic application execution on clouds : Gestion autonome des ressources et des applications dans un nuage informatique selon une approche fondée sur un marché. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2013REN1S113
Chicago Manual of Style (16th Edition):
Costache, Stefania. “Market-based autonomous and elastic application execution on clouds : Gestion autonome des ressources et des applications dans un nuage informatique selon une approche fondée sur un marché.” 2013. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2013REN1S113.
MLA Handbook (7th Edition):
Costache, Stefania. “Market-based autonomous and elastic application execution on clouds : Gestion autonome des ressources et des applications dans un nuage informatique selon une approche fondée sur un marché.” 2013. Web. 08 Dec 2019.
Vancouver:
Costache S. Market-based autonomous and elastic application execution on clouds : Gestion autonome des ressources et des applications dans un nuage informatique selon une approche fondée sur un marché. [Internet] [Doctoral dissertation]. Rennes 1; 2013. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2013REN1S113.
Council of Science Editors:
Costache S. Market-based autonomous and elastic application execution on clouds : Gestion autonome des ressources et des applications dans un nuage informatique selon une approche fondée sur un marché. [Doctoral Dissertation]. Rennes 1; 2013. Available from: http://www.theses.fr/2013REN1S113
18.
Pietropaoli, Paoli.
Reconnaissance de contexte stable pour l'habitat intelligent : Stable context recognition for smart home.
Degree: Docteur es, Informatique, 2013, Rennes 1
URL: http://www.theses.fr/2013REN1S148
► L'habitat intelligent est l'objet de nombreux travaux de recherche. Il permet d'assister des personnes âgées ou handicapées, d'améliorer le confort, la sécurité ou encore d'économiser…
(more)
▼ L'habitat intelligent est l'objet de nombreux travaux de recherche. Il permet d'assister des personnes âgées ou handicapées, d'améliorer le confort, la sécurité ou encore d'économiser de l'énergie. Aujourd'hui, l'informatique ubiquitaire se développe et s'intègre dans l'habitat intelligent notamment en apportant la sensibilité au contexte. Malheureusement, comprendre ce qui se passe dans une maison n'est pas toujours facile. Dans cette thèse, nous explicitons comment le contexte peut permettre de déployer des services adaptés aux activités et aux besoins des habitants. La compréhension du contexte passe par l'installation de capteurs mais aussi par l'abstraction des données brutes en données intelligibles facilement exploitables par des humains et des services. Nous mettons en avant une architecture multi-couches de fusion de données permettant d'obtenir des données contextuelles de niveaux d'abstraction différents. La mise en place des couches basses y est présentée en détail avec l'application de la théorie des fonctions de croyance pour l'abstraction de données brutes issues de capteurs. Enfin, sont présentés le déploiement d'un prototype nous ayant permis de valider notre approche, ainsi que les services déployés.
Smart home is a major subject of interest. It helps to assist elderly or disabled people, improve comfort, safety, and also save energy. Today, ubiquitous computing is developed and integrated into the smart home providing context-awareness. Unfortunately, understanding what happens in a home is not always easy. In this thesis, we explain how context can be used to deploy services tailored to the activities and needs of residents. Understanding context requires the installation of sensors but also the abstraction of raw data into easily understandable data usable by humans and services. We present a multi-layer architecture of data fusion used to obtain contextual information of different levels of abstraction. The implementation of the lower layers is presented in detail with the application of the theory of belief functions for the abstraction of raw sensor data. Finally, are presented the deployment of a prototype that allowed us to validate our approach and the deployed services.
Advisors/Committee Members: Weis, Frédéric (thesis director), Banâtre, Michel (thesis director).
Subjects/Keywords: Informatique ubiquitaire; Habitat intelligent; Contexte; Fusion de données; Fonctions de croyance; Ubiquitous computing; Smart home; Context; Data fusion; Belief functions
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Pietropaoli, P. (2013). Reconnaissance de contexte stable pour l'habitat intelligent : Stable context recognition for smart home. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2013REN1S148
Chicago Manual of Style (16th Edition):
Pietropaoli, Paoli. “Reconnaissance de contexte stable pour l'habitat intelligent : Stable context recognition for smart home.” 2013. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2013REN1S148.
MLA Handbook (7th Edition):
Pietropaoli, Paoli. “Reconnaissance de contexte stable pour l'habitat intelligent : Stable context recognition for smart home.” 2013. Web. 08 Dec 2019.
Vancouver:
Pietropaoli P. Reconnaissance de contexte stable pour l'habitat intelligent : Stable context recognition for smart home. [Internet] [Doctoral dissertation]. Rennes 1; 2013. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2013REN1S148.
Council of Science Editors:
Pietropaoli P. Reconnaissance de contexte stable pour l'habitat intelligent : Stable context recognition for smart home. [Doctoral Dissertation]. Rennes 1; 2013. Available from: http://www.theses.fr/2013REN1S148
19.
Ellouze, Selim.
Mécanismes de collaboration entre réseaux et services applicatifs pour l'optimisation des ressources et des services : Collaboration mechanisms between overlays and networks for the optimization of ressources and services.
Degree: Docteur es, Informatique, 2013, Rennes 1
URL: http://www.theses.fr/2013REN1S050
► Dans cette nouvelle ère du numérique, l'accès à l'information est entré désormais dans une autre dimension. Nous assistons à la dominance d'un modèle fondé sur…
(more)
▼ Dans cette nouvelle ère du numérique, l'accès à l'information est entré désormais dans une autre dimension. Nous assistons à la dominance d'un modèle fondé sur les opportunités offertes par un accès mondialisé à l'Internet et à son application phare : le "World Wide Web". Les services se sont multipliés. Les terminaux se sont diversifiés. Les technologies de transport se sont améliorées. Les attentes se sont élevées. Dans cette spirale que nous nous abstenons de qualifier, les opérateurs se trouvent désormais confrontés à une croissance soutenue du trafic dans leurs réseaux, en grande partie due au transport de flux vidéo. Les fournisseurs de services sur Internet se trouvent aussi concernés par la problématique de la qualité de service dont dépend la satisfaction de leurs utilisateurs. Pour l'ensemble des acteurs, ces nouvelles tendances présentent à la fois des défis et des opportunités. Les défis se concentrent dans la problématique de gestion de la demande croissante du trafic tout en maintenant une qualité d'expérience appropriée pour les utilisateurs. Les opportunités proviendront de l'adéquation entre une demande croissante des services Web en termes de qualité de services et des ressources qui devront supporter la distribution de ces services. Il est crucial pour chaque acteur de bien se positionner dans la chaîne de valeur pour gérer cette adéquation. Le rôle que prendra le réseau support, simple ensemble de tuyaux surdimensionnés, ou bien réseau intelligent offrant des fonctions avancées de contrôle illustre parfaitement cet enjeu. Ces deux alternatives sont respectivement connues sous les termes "dumb-pipe" ou "smart network". Dans cette thèse, nous considérons une nouvelle approche, qui se veut simple, efficace et adaptée pour faire face à ces défis. Les opérateurs réseaux et les fournisseurs de services sont mutuellement gagnants dans l'amélioration du transport de données dans les réseaux tout en continuant à opérer leur propre infrastructure. Cette démarche coopérative est le point de départ de nos travaux qui visent à définir un cadre, une architecture et des techniques appropriées qui amèneront ces acteurs à collaborer en vue de gérer conjointement cette problématique. Cette collaboration est nécessaire car chaque acteur quoique prisonnier de ses contraintes peut les transformer en relations contractuelles dans un processus client fournisseur pour l'optimisation de la gestion du trafic.
In this new digital world, driven by the dominance of a model based on the opportunities offered by global access to the Internet and its killer app: the World Wide Web, access to information is becoming a matter of a good experience and responsiveness. We are witnessing the Web services are of increasing popularity. New types of terminals are proposed. Communications technologies are improved. Users expectations are becoming higher. In such a context, network operators are facing serious challenges arising from the management of a massive traffic growth, largely driven by the increasing amount of video streams…
Advisors/Committee Members: Rubino, Gerardo (thesis director), Lemlouma, Tayeb (thesis director).
Subjects/Keywords: Optimisation du trafic, optimisation transport de données CDN, Cloud et P2P; Pair à pair (Internet); P2p; Cloud Computing; QoS
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Ellouze, S. (2013). Mécanismes de collaboration entre réseaux et services applicatifs pour l'optimisation des ressources et des services : Collaboration mechanisms between overlays and networks for the optimization of ressources and services. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2013REN1S050
Chicago Manual of Style (16th Edition):
Ellouze, Selim. “Mécanismes de collaboration entre réseaux et services applicatifs pour l'optimisation des ressources et des services : Collaboration mechanisms between overlays and networks for the optimization of ressources and services.” 2013. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2013REN1S050.
MLA Handbook (7th Edition):
Ellouze, Selim. “Mécanismes de collaboration entre réseaux et services applicatifs pour l'optimisation des ressources et des services : Collaboration mechanisms between overlays and networks for the optimization of ressources and services.” 2013. Web. 08 Dec 2019.
Vancouver:
Ellouze S. Mécanismes de collaboration entre réseaux et services applicatifs pour l'optimisation des ressources et des services : Collaboration mechanisms between overlays and networks for the optimization of ressources and services. [Internet] [Doctoral dissertation]. Rennes 1; 2013. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2013REN1S050.
Council of Science Editors:
Ellouze S. Mécanismes de collaboration entre réseaux et services applicatifs pour l'optimisation des ressources et des services : Collaboration mechanisms between overlays and networks for the optimization of ressources and services. [Doctoral Dissertation]. Rennes 1; 2013. Available from: http://www.theses.fr/2013REN1S050
20.
Li, Yue.
Edge computing-based access network selection for heterogeneous wireless networks : Sélection de réseau d'accès basée sur le Edge Computing pour des réseaux sans fil hétérogènes.
Degree: Docteur es, Informatique, 2017, Rennes 1
URL: http://www.theses.fr/2017REN1S042
► Au cours de ces dernières décennies, les réseaux de télécommunications mobiles ont évolué de la 1G à la 4G. La 4G permet la coexistence de…
(more)
▼ Au cours de ces dernières décennies, les réseaux de télécommunications mobiles ont évolué de la 1G à la 4G. La 4G permet la coexistence de différents réseaux d'accès. Ainsi, les utilisateurs ont la capacité de se connecter à un réseau hétérogène, constitué de plusieurs réseaux d'accès. Toutefois, la sélection du réseau approprié n'est pas une tâche facile pour les utilisateurs mobiles puisque les conditions de chaque réseau d'accès changent rapidement. Par ailleurs, en termes d'usage, le streaming vidéo devient le service principal de transfert de données sur les réseaux mobiles, ce qui amène les fournisseurs de contenu et les opérateurs de réseau à coopérer pour garantir la qualité de la diffusion. Dans ce contexte, la thèse propose la conception d'une approche novatrice pour la prise de décision optimale de sélection de réseau et une architecture améliorant les performances des services de streaming adaptatif dans un réseau hétérogène. En premier lieu, nous introduisons un modèle analytique décrivant la procédure de sélection de réseau en ne considérant déjà qu'une seule classe de trafic. Nous concevons ensuite une stratégie de sélection basée sur des fondements de la théorie du contrôle optimal linéaire. Des simulations sous MATLAB sont effectuées pour valider l'efficacité du mécanisme proposé. Sur ce même principe, nous étendons ce modèle avec un modèle analytique général décrivant les procédures de sélection de réseau dans des environnements de réseaux hétérogènes avec de multiples classes de trafic. Le modèle proposé est ensuite utilisé pour dériver un mécanisme adaptatif basé sur la théorie du contrôle, qui permet non seulement d'aider à piloter dynamiquement le trafic vers l'accès réseau le plus approprié mais aussi de bloquer dynamiquement le trafic résiduel lorsque le réseau est congestionné en ajustant les probabilités d'accès optimales. Nous discutons aussi les avantages d'une intégration transparente du mécanisme proposé avec l'ANDSF, solution fonctionnelle normalisée pour la sélection de réseau. Un prototype est également implémenté dans ns-3. En second lieu, nous nous concentrons sur l'amélioration des performances de DASH pour les utilisateurs mobiles dans un environnement de réseau d'accès 4G uniquement. Nous introduisons une nouvelle architecture basée sur l'utilisation de serveurs distribués en périphérie de réseau suivant le standard MEC. Le mécanisme d'adaptation proposé, fonctionnant en tant que service MEC, peut modifier les fichiers de manifeste en temps réel, en réponse à la congestion du réseau et à la demande dynamique de flux de streaming. Ces modifications conduisent ainsi les clients à sélectionner des représentations vidéo de débit / qualité plus appropriées. Nous avons développé une plateforme de test virtualisée pour l'expérimentation de notre proposition. Les résultats ainsi obtenus démontrent ses avantages en terme de QoE comparés aux approches d'adaptation traditionnelles, purement pilotées par les clients, car notre approche améliore non seulement le MOS mais aussi l'équité face à…
Advisors/Committee Members: Rubino, Gerardo (thesis director), Bertin, Philippe (thesis director).
Subjects/Keywords: Réseau Hétérogène; Sélection de Réseaux; Théorie du Contrôle; Streaming adaptatif dynamique sur HTTP; Mobile Edge Computing; Qualité d'expérience; Heterogeneous Network; Network Selection; Control Theory; Dynamic Adaptive Streaming over HTTP; Mobile Edge Computing; Quality of Experience
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Li, Y. (2017). Edge computing-based access network selection for heterogeneous wireless networks : Sélection de réseau d'accès basée sur le Edge Computing pour des réseaux sans fil hétérogènes. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2017REN1S042
Chicago Manual of Style (16th Edition):
Li, Yue. “Edge computing-based access network selection for heterogeneous wireless networks : Sélection de réseau d'accès basée sur le Edge Computing pour des réseaux sans fil hétérogènes.” 2017. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2017REN1S042.
MLA Handbook (7th Edition):
Li, Yue. “Edge computing-based access network selection for heterogeneous wireless networks : Sélection de réseau d'accès basée sur le Edge Computing pour des réseaux sans fil hétérogènes.” 2017. Web. 08 Dec 2019.
Vancouver:
Li Y. Edge computing-based access network selection for heterogeneous wireless networks : Sélection de réseau d'accès basée sur le Edge Computing pour des réseaux sans fil hétérogènes. [Internet] [Doctoral dissertation]. Rennes 1; 2017. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2017REN1S042.
Council of Science Editors:
Li Y. Edge computing-based access network selection for heterogeneous wireless networks : Sélection de réseau d'accès basée sur le Edge Computing pour des réseaux sans fil hétérogènes. [Doctoral Dissertation]. Rennes 1; 2017. Available from: http://www.theses.fr/2017REN1S042
21.
Bevilacqua, Marco.
Algorithms for super-resolution of images and videos based on learning methods : Algorithmes de super-résolution d'images et de vidéos basés sur des méthodes d'apprentissage.
Degree: Docteur es, Informatique, 2014, Rennes 1
URL: http://www.theses.fr/2014REN1S027
► Par le terme ''super-résolution'' (SR), nous faisons référence à une classe de techniques qui améliorent la résolution spatiale d'images et de vidéos. Les algorithmes de…
(more)
▼ Par le terme ''super-résolution'' (SR), nous faisons référence à une classe de techniques qui améliorent la résolution spatiale d'images et de vidéos. Les algorithmes de SR peuvent être de deux types : les méthodes ''multi-frame'', où plusieurs images en basse résolution sont agrégées pour former une image unique en haute résolution, et les méthodes ''single-image'', qui visent à élargir une seule image. Cette thèse a pour sujet le développement de théories et algorithmes pour le problème single-image. En particulier, nous adoptons une approche ''basée sur exemples'', où l'image de sortie est estimée grâce à des techniques d'apprentissage automatique, en utilisant les informations contenues dans un dictionnaire d'exemples. Ces exemples consistent en des blocs d'image, soit extraits à partir d'images externes, soit dérivées de l'image d'entrée elle-même. Pour les deux types de dictionnaire, nous concevons de nouveaux algorithmes de SR présentant de nouvelles méthodes de suréchantillonnage et de construction du dictionnaire, et les comparons à l'état de l'art. Les résultats obtenus s'avèrent très compétitifs en termes de qualité visuelle des images de sortie et de complexité des calculs. Nous appliquons ensuite nos algorithmes au cas de la vidéo, où l'objectif est d'élargir la résolution d'une séquence vidéo. Les algorithmes, opportunément adaptées pour faire face à ce cas, sont également analysés dans le contexte du codage. L'analyse effectuée montre que, dans des cas spécifiques, la SR peut aussi être un outil efficace pour la compression vidéo, ouvrant ainsi de nouvelles perspectives intéressantes.
With super-resolution (SR) we refer to a class of techniques that enhance the spatial resolution of images and videos. SR algorithms can be of two kinds: multi-frame methods, where multiple low-resolution images are aggregated to form a unique high-resolution image, and single-image methods, that aim at upscaling a single image. This thesis focuses on developing theory and algorithms for the single-image SR problem. In particular, we adopt the so called example-based approach, where the output image is estimated with machine learning techniques, by using the information contained in a dictionary of image “examples”. The examples consist in image patches, which are either extracted from external images or derived from the input image itself. For both kinds of dictionary, we design novel SR algorithms, with new upscaling and dictionary construction procedures, and compare them to state-of-the-art methods. The results achieved are shown to be very competitive both in terms of visual quality of the super-resolved images and computational complexity. We then apply our designed algorithms to the video upscaling case, where the goal is to enlarge the resolution of an entire video sequence. The algorithms, opportunely adapted to deal with this case, are also analyzed in the coding context. The analysis conducted shows that, in specific cases, SR can also be an effective tool for video compression, thus opening new interesting…
Advisors/Committee Members: Roumy, Aline (thesis director), Guillemot, Christine (thesis director).
Subjects/Keywords: Conception d'algorithmes de super-résolution d'images et de vidéos; Algorithms; Image processing; Machine learning
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Bevilacqua, M. (2014). Algorithms for super-resolution of images and videos based on learning methods : Algorithmes de super-résolution d'images et de vidéos basés sur des méthodes d'apprentissage. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2014REN1S027
Chicago Manual of Style (16th Edition):
Bevilacqua, Marco. “Algorithms for super-resolution of images and videos based on learning methods : Algorithmes de super-résolution d'images et de vidéos basés sur des méthodes d'apprentissage.” 2014. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2014REN1S027.
MLA Handbook (7th Edition):
Bevilacqua, Marco. “Algorithms for super-resolution of images and videos based on learning methods : Algorithmes de super-résolution d'images et de vidéos basés sur des méthodes d'apprentissage.” 2014. Web. 08 Dec 2019.
Vancouver:
Bevilacqua M. Algorithms for super-resolution of images and videos based on learning methods : Algorithmes de super-résolution d'images et de vidéos basés sur des méthodes d'apprentissage. [Internet] [Doctoral dissertation]. Rennes 1; 2014. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2014REN1S027.
Council of Science Editors:
Bevilacqua M. Algorithms for super-resolution of images and videos based on learning methods : Algorithmes de super-résolution d'images et de vidéos basés sur des méthodes d'apprentissage. [Doctoral Dissertation]. Rennes 1; 2014. Available from: http://www.theses.fr/2014REN1S027
22.
Penet, Cédric.
De l'indexation d'évènements dans des films : application à la détection de violence : On events indexing in movies : application to violence detection.
Degree: Docteur es, Informatique, 2013, Rennes 1
URL: http://www.theses.fr/2013REN1S145
► Dans cette thèse, nous nous intéressons à la détection de concepts sémantiques dans des films "Hollywoodiens" à l'aide de concepts audio et vidéos, dans le…
(more)
▼ Dans cette thèse, nous nous intéressons à la détection de concepts sémantiques dans des films "Hollywoodiens" à l'aide de concepts audio et vidéos, dans le cadre applicatif de la détection de violence. Nos travaux se portent sur deux axes : la détection de concepts audio violents, tels que les coups de feu et les explosions, puis la détection de violence, dans un premier temps uniquement fondée sur l'audio, et dans un deuxième temps fondée sur l'audio et la vidéo. Dans le cadre de la détection de concepts audio, nous mettons tout d'abord un problème de généralisation en lumière, et nous montrons que ce problème est probablement dû à une divergence statistique entre les attributs audio extraits des films. Nous proposons pour résoudre ce problème d'utiliser le concept des mots audio, de façon à réduire cette variabilité en groupant les échantillons par similarité, associé à des réseaux Bayésiens contextuels. Les résultats obtenus sont très encourageants, et une comparaison avec un état de l'art obtenu sur les même données montre que les résultats sont équivalents. Le système obtenu peut être soit très robuste vis-à-vis du seuil appliqué en utilisant la fusion précoce des attributs, soit proposer une grande variété de points de fonctionnement. Nous proposons enfin une adaptation de l'analyse factorielle développée dans le cadre de la reconnaissance du locuteur, et montrons que son intégration dans notre système améliore les résultats obtenus. Dans le cadre de la détection de violence, nous présentons la campagne d'évaluation MediaEval Affect Task 2012, dont l'objectif est de regrouper les équipes travaillant sur le sujet de la détection de violence. Nous proposons ensuite trois systèmes pour détecter la violence, deux fondés uniquement sur l'audio, le premier utilisant une description TF-IDF, et le second étant une intégration du système de détection de concepts audio dans le cadre de la détection violence, et un système multimodal utilisant l'apprentissage de structures de graphe dans des réseaux bayésiens. Les performances obtenues dans le cadre des différents systèmes, et une comparaison avec les systèmes développés dans le cadre de MediaEval, montrent que nous sommes au niveau de l'état de l'art, et révèlent la complexité de tels systèmes.
In this thesis, we focus on the detection of semantic concepts in "Hollywood" movies using audio and video concepts for the detection of violence. We present experiments in two main areas : the detection of violent audio concepts such as gunshots and explosions, and the detection of violence, initially based only on audio, then based on both audio and video. In the context of audio concepts detection, we first show a generalisation arising between movies. We show that this problem is probably due to a statistical divergence between the audio features extracted from the movies. In order to solve it, we propose to use the concept of audio words, so as to reduce the variability by grouping samples by similarity, combined with contextual Bayesian networks. The results are very…
Advisors/Committee Members: Gros, Patrick (thesis director), Demarty, Claire-Hélène (thesis director).
Subjects/Keywords: Apprentissage automatique; Traitement du signal; Informatique; Automatic learning; Signal processing; Computer science
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Penet, C. (2013). De l'indexation d'évènements dans des films : application à la détection de violence : On events indexing in movies : application to violence detection. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2013REN1S145
Chicago Manual of Style (16th Edition):
Penet, Cédric. “De l'indexation d'évènements dans des films : application à la détection de violence : On events indexing in movies : application to violence detection.” 2013. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2013REN1S145.
MLA Handbook (7th Edition):
Penet, Cédric. “De l'indexation d'évènements dans des films : application à la détection de violence : On events indexing in movies : application to violence detection.” 2013. Web. 08 Dec 2019.
Vancouver:
Penet C. De l'indexation d'évènements dans des films : application à la détection de violence : On events indexing in movies : application to violence detection. [Internet] [Doctoral dissertation]. Rennes 1; 2013. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2013REN1S145.
Council of Science Editors:
Penet C. De l'indexation d'évènements dans des films : application à la détection de violence : On events indexing in movies : application to violence detection. [Doctoral Dissertation]. Rennes 1; 2013. Available from: http://www.theses.fr/2013REN1S145
23.
Begaint, Jean.
Towards novel inter-prediction methods for image and video compression : Nouvelles méthodes de prédiction inter-images pour la compression d’images et de vidéos.
Degree: Docteur es, Traitement du signal, 2018, Rennes 1
URL: http://www.theses.fr/2018REN1S038
► En raison de la grande disponibilité des dispositifs de capture vidéo et des nouvelles pratiques liées aux réseaux sociaux, ainsi qu’à l’émergence des services en…
(more)
▼ En raison de la grande disponibilité des dispositifs de capture vidéo et des nouvelles pratiques liées aux réseaux sociaux, ainsi qu’à l’émergence des services en ligne, les images et les vidéos constituent aujourd’hui une partie importante de données transmises sur internet. Les applications de streaming vidéo représentent ainsi plus de 70% de la bande passante totale de l’internet. Des milliards d’images sont déjà stockées dans le cloud et des millions y sont téléchargés chaque jour. Les besoins toujours croissants en streaming et stockage nécessitent donc une amélioration constante des outils de compression d’image et de vidéo. Cette thèse vise à explorer des nouvelles approches pour améliorer les méthodes actuelles de prédiction inter-images. De telles méthodes tirent parti des redondances entre images similaires, et ont été développées à l’origine dans le contexte de la vidéo compression. Dans une première partie, de nouveaux outils de prédiction inter globaux et locaux sont associés pour améliorer l’efficacité des schémas de compression de bases de données d’image. En associant une compensation géométrique et photométrique globale avec une prédiction linéaire locale, des améliorations significatives peuvent être obtenues. Une seconde approche est ensuite proposée qui introduit un schéma de prédiction inter par régions. La méthode proposée est en mesure d’améliorer les performances de codage par rapport aux solutions existantes en estimant et en compensant les distorsions géométriques et photométriques à une échelle semi locale. Cette approche est ensuite adaptée et validée dans le cadre de la compression vidéo. Des améliorations en réduction de débit sont obtenues, en particulier pour les séquences présentant des mouvements complexes réels tels que des zooms et des rotations. La dernière partie de la thèse se concentre sur l’étude des méthodes d’apprentissage en profondeur dans le cadre de la prédiction inter. Ces dernières années, les réseaux de neurones profonds ont obtenu des résultats impressionnants pour un grand nombre de tâches de vision par ordinateur. Les méthodes basées sur l’apprentissage en profondeur proposées à l’origine pour de l’interpolation d’images sont étudiées ici dans le contexte de la compression vidéo. Des améliorations en terme de performances de codage sont obtenues par rapport aux méthodes d’estimation et de compensation de mouvements traditionnelles. Ces résultats mettent en évidence le fort potentiel de ces architectures profondes dans le domaine de la compression vidéo.
Due to the large availability of video cameras and new social media practices, as well as the emergence of cloud services, images and videos constitute today a significant amount of the total data that is transmitted over the internet. Video streaming applications account for more than 70% of the world internet bandwidth. Whereas billions of images are already stored in the cloud and millions are uploaded every day. The ever growing streaming and storage requirements of these media require the constant…
Advisors/Committee Members: Guillemot, Christine (thesis director), Guillotel, Philippe (thesis director).
Subjects/Keywords: Traitement d’image; Vision par ordinateur; Compression vidéo; Image Processing; Computer Vision; Video compression
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Begaint, J. (2018). Towards novel inter-prediction methods for image and video compression : Nouvelles méthodes de prédiction inter-images pour la compression d’images et de vidéos. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2018REN1S038
Chicago Manual of Style (16th Edition):
Begaint, Jean. “Towards novel inter-prediction methods for image and video compression : Nouvelles méthodes de prédiction inter-images pour la compression d’images et de vidéos.” 2018. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2018REN1S038.
MLA Handbook (7th Edition):
Begaint, Jean. “Towards novel inter-prediction methods for image and video compression : Nouvelles méthodes de prédiction inter-images pour la compression d’images et de vidéos.” 2018. Web. 08 Dec 2019.
Vancouver:
Begaint J. Towards novel inter-prediction methods for image and video compression : Nouvelles méthodes de prédiction inter-images pour la compression d’images et de vidéos. [Internet] [Doctoral dissertation]. Rennes 1; 2018. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2018REN1S038.
Council of Science Editors:
Begaint J. Towards novel inter-prediction methods for image and video compression : Nouvelles méthodes de prédiction inter-images pour la compression d’images et de vidéos. [Doctoral Dissertation]. Rennes 1; 2018. Available from: http://www.theses.fr/2018REN1S038
24.
Diallo, Cheikh-Dieylar.
Study and design of new multibeam antenna architectures in Ku and Ka bands for broadband satellite applications : Étude de nouvelles architectures d'antennes multifaisceaux en bande Ka pour les télécommunications par satellite à très haut débit.
Degree: Docteur es, Traitement du signal et télécommunications, 2016, Rennes 1
URL: http://www.theses.fr/2016REN1S151
► Les antennes multifaisceaux (AMFs) sont cruciales pour les applications de télécommunications par satellite modernes et futures, civiles et militaires. La partie basse du spectre électromagnétique…
(more)
▼ Les antennes multifaisceaux (AMFs) sont cruciales pour les applications de télécommunications par satellite modernes et futures, civiles et militaires. La partie basse du spectre électromagnétique est saturée alors que de larges bandes de fréquences sont disponibles dans la bande Ka, dans laquelle des missions à très-haut débit ont émergées au cours de la dernière décennie. La tendance consiste à réduire la taille des spots pour les couvertures multi-spots afin de diminuer le prix des satellites. Ainsi des antennes d’ouverture de plus en plus grande électriquement sont requises, induisant des ruptures technologiques majeures. Les lentilles de Luneburg insérées dans un guide d’ondes à plans parallèles (GOPP) deux plaques métalliques parallèles (PMPs) sont des solutions attractives pour illuminer les AMFs, puisqu’elles peuvent aboutir à des formateurs de faisceaux de bande et champ de visée larges, pertes et coûts faibles, et simples à concevoir, réaliser et intégrer. Les travaux de cette thèse portent sur le développement de nouvelles méthodes d’implémentation et sur la conception de AMFs à base de lentille de Luneburg. La réalisation de la lentille de Luneburg est connue pour être un défi technologique majeur. Un état de l’art des méthodes de réalisation est fourni. Ensuite, deux nouvelles méthodes sont proposées, ainsi qu’une méthode et des outils de conception. La première méthode de réalisation consiste en une matrice périodique et régulière de plots métalliques de taille inférieure à la longueur d’onde, et où la séparation du GOPP varie. La hauteur des plots et la séparation du GOPP contrôlent la valeur de l’indice de réfraction équivalente. L’antenne à 9 faisceaux tout métal conçue, fabriquée et mesurée, comporte 8314 plots et présente d’excellentes performances, notamment meilleures que sa version à séparation de plaques constante. La seconde méthode de réalisation consiste en une matrice périodique et régulière de trous circulaires de taille inférieure à la longueur d’onde réalisés sur un des deux revêtements cuivrés d’un substrat diélectrique plus une plaque métallique supérieure séparée du plan des trous par une couche d’air d’épaisseur fixe. L’antenne à 5 faisceaux conçue comporte 2696 trous et présente de très bonnes performances comparés à ces semblables dans la littérature.
Multi-beam antennas (MBAs) are crucial to modern and future, civilian and military satellite telecommunications applications. The low part of the electromagnetic spectrum is congested, while wide band of frequencies are available in the Ka-band, in which broadband missions have emerged in the last decade. The trend is reducing the size of spots in multi-beam coverage to reduce the cost of satellites, hence more electrically large antennas are needed, with major technological breakthrough as a consequence. Luneburg lenses in parallel-plate waveguide (PPW) are attractive solutions to excite MBAs, since they could lead to wide band and field-of-view, low loss and cost, easy to design, manufacture and accommodate Beam Forming Networks.…
Advisors/Committee Members: Sauleau, Ronan (thesis director).
Subjects/Keywords: Antennes multiaisceaux; Lentille; Luneburg; Cellule unitaire et cellule élémentaire; Métasurface; Métamatériaux; Multibeam antenna; Luneburg; Fakir; Bed-Of-Nails; Unit-Cell; Metasurface; Holey plate; Parallel-Plate; Waveguide; Fan beam; Satellite; Communication; Metamaterial
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Diallo, C. (2016). Study and design of new multibeam antenna architectures in Ku and Ka bands for broadband satellite applications : Étude de nouvelles architectures d'antennes multifaisceaux en bande Ka pour les télécommunications par satellite à très haut débit. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2016REN1S151
Chicago Manual of Style (16th Edition):
Diallo, Cheikh-Dieylar. “Study and design of new multibeam antenna architectures in Ku and Ka bands for broadband satellite applications : Étude de nouvelles architectures d'antennes multifaisceaux en bande Ka pour les télécommunications par satellite à très haut débit.” 2016. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2016REN1S151.
MLA Handbook (7th Edition):
Diallo, Cheikh-Dieylar. “Study and design of new multibeam antenna architectures in Ku and Ka bands for broadband satellite applications : Étude de nouvelles architectures d'antennes multifaisceaux en bande Ka pour les télécommunications par satellite à très haut débit.” 2016. Web. 08 Dec 2019.
Vancouver:
Diallo C. Study and design of new multibeam antenna architectures in Ku and Ka bands for broadband satellite applications : Étude de nouvelles architectures d'antennes multifaisceaux en bande Ka pour les télécommunications par satellite à très haut débit. [Internet] [Doctoral dissertation]. Rennes 1; 2016. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2016REN1S151.
Council of Science Editors:
Diallo C. Study and design of new multibeam antenna architectures in Ku and Ka bands for broadband satellite applications : Étude de nouvelles architectures d'antennes multifaisceaux en bande Ka pour les télécommunications par satellite à très haut débit. [Doctoral Dissertation]. Rennes 1; 2016. Available from: http://www.theses.fr/2016REN1S151
25.
Bandaly, Victor.
Etude de la persistance de virus sur les filtres des centrales de traitement d'air : influence des paramètres de procédé et impact sur la santé : Study of the fate of viruses on the filters of the air hundling unit : influence of the process parameters and impact on health.
Degree: Docteur es, Biologie, 2017, Rennes 1
URL: http://www.theses.fr/2017REN1B038
► La pollution de l'air est l'un des principaux problèmes de santé publique de notre siècle et surtout de l'air intérieur alors que nous passons environ…
(more)
▼ La pollution de l'air est l'un des principaux problèmes de santé publique de notre siècle et surtout de l'air intérieur alors que nous passons environ 90% de notre temps dans des environnements fermés. Parmi les polluants les bioaérosols ont été peu étudiés. Cependant des études épidémiologiques ont déjà montré une relation entre les bioaérosols et la santé. Le but de cette thèse est d’étudier les virus respiratoires dans les milieux clos via les systèmes de ventilation. A l’issue d’un état de l’art des polluants de l’air, il est important de définir ceux nécessitant d’être traités, les systèmes de ventilation, les procédés de filtration par médias fibreux et les procédés de traitement pouvant être mis en oeuvre. Les effets des bioaérosols viraux dans les environnements intérieurs sur la santé publique ont été discutés dans une revue bibliographique. Une méthodologie a été mise en oeuvre pour étudier le comportement des virus dans une centrale de traitement de l’air (CTA). Les virus respiratoires, mengovirus (virus nu à ARN de la même famille que les rhinovirus responsables du rhume) et adénovirus (virus respiratoire nu à ADN), ont été choisis et étudiés dans un système expérimental miniature représentatif des systèmes de traitement d’air. La performance de filtration d’un filtre de CTA vis-à-vis des aérosols viraux a été évaluée avec une validation du système expérimental utilisé. Cette étude a montré la capacité des virus de passer à travers le filtre tout en restant infectieux. Peu de littérature existant sur le sujet, ce projet a permis d’ajouter de nouvelles données pertinentes quant à la persistance des virus respiratoires dans l’air intérieur et plus précisément au niveau des filtres dans les centrales de traitement d’air.
Air pollution is one of the major public health problems of our century and especially of indoor air as we spend about 90% of our time in closed environments. Among pollutants bioaerosols have been poorly studied. However, epidemiological studies have already shown a relationship between bioaerosols and human health. The aim of this PhD work is to learn about respiratory viruses in closed environments via ventilation systems in order to study indoor air quality. At the end of state of the art of air pollutants, it is important to define those present in the air that need to be treated, ventilation systems, filtration processes by fibrous media and the processing methods being able to be implemented. The effects of viral bioaerosols on public health in indoor environments were discussed and drafted in a bibliographic review. The methodology of the study was to assess the fate of respiratory viruses, mengoviruses and adenoviruses, in a miniature experimental system similar to air treatment systems used in closed environments. The experimental system used was validated and the filter performance against viral aerosols was investigated. This study presented originality for the characterization and the fate of two non-enveloped respiratory viruses, mengovirus (RNA) and adenovirus (DNA), in…
Advisors/Committee Members: Le Cann, Pierre (thesis director), Andres, Yves (thesis director).
Subjects/Keywords: Qualité de l'air intérieur; Bioaérosols; Filtre en fibre de verre - F7; Cta; Mengovirus; Adénovirus; Caractérisation des aérosols viraux; Indoor air quality; Bioaerosols; Fiberglass filter; Air handling unit; Mengovirus; Adenovirus; Characterization of viral aerosols
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Bandaly, V. (2017). Etude de la persistance de virus sur les filtres des centrales de traitement d'air : influence des paramètres de procédé et impact sur la santé : Study of the fate of viruses on the filters of the air hundling unit : influence of the process parameters and impact on health. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2017REN1B038
Chicago Manual of Style (16th Edition):
Bandaly, Victor. “Etude de la persistance de virus sur les filtres des centrales de traitement d'air : influence des paramètres de procédé et impact sur la santé : Study of the fate of viruses on the filters of the air hundling unit : influence of the process parameters and impact on health.” 2017. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2017REN1B038.
MLA Handbook (7th Edition):
Bandaly, Victor. “Etude de la persistance de virus sur les filtres des centrales de traitement d'air : influence des paramètres de procédé et impact sur la santé : Study of the fate of viruses on the filters of the air hundling unit : influence of the process parameters and impact on health.” 2017. Web. 08 Dec 2019.
Vancouver:
Bandaly V. Etude de la persistance de virus sur les filtres des centrales de traitement d'air : influence des paramètres de procédé et impact sur la santé : Study of the fate of viruses on the filters of the air hundling unit : influence of the process parameters and impact on health. [Internet] [Doctoral dissertation]. Rennes 1; 2017. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2017REN1B038.
Council of Science Editors:
Bandaly V. Etude de la persistance de virus sur les filtres des centrales de traitement d'air : influence des paramètres de procédé et impact sur la santé : Study of the fate of viruses on the filters of the air hundling unit : influence of the process parameters and impact on health. [Doctoral Dissertation]. Rennes 1; 2017. Available from: http://www.theses.fr/2017REN1B038
26.
Ho, Minh Tuan.
Mise en oeuvre d'un système de localisation indoor s'appuyant sur une analyse du mouvement d'un terminal embarqué : Implementation of an indoor localization system based on an analysis of the movement of an embedded device.
Degree: Docteur es, Informatique, 2013, Rennes 1
URL: http://www.theses.fr/2013REN1S166
► L'objectif de nos travaux de recherche est de concevoir une architecture simple et efficace veiller à deux exigences suivantes: une grande précision (au niveau de…
(more)
▼ L'objectif de nos travaux de recherche est de concevoir une architecture simple et efficace veiller à deux exigences suivantes: une grande précision (au niveau de la pièce) ; une adaptation aux plusieurs scénarios. La thèse contribue aux études pour les systèmes de localisation en intérieur en combinant des approches basées sur la caractérisation de mouvement, la communication courte portée et de l'intensité du signal. La combinaison de ces approches proposées permettent de minimiser la défaillance de chacune approche. En effet, notre système de localisation propose une combinaison des technologies qui sont actuellement équipé en terminaux mobiles, y compris la technologie de WLAN, NFC et des capteurs (accéléromètre et magnétomètre). Voici nos trois approches proposées : Premièrement, nous proposons l'approche basée sur NFC-étiquetage qui fournit un service simple et efficace pour une localisation en intérieur. En touchant une étiquette disséminées dans l'environnement intérieur, l'utilisateur peut connaître sa position réelle qui est même à celle d’étiquette. Cette approche est très pratique car la localisation se fait automatiquement en approchant le terminal mobile de l'utilisateur à l’étiquette. L'approche basée sur NFC-étiquetage, cependant, nécessite l'intervention régulière de l'utilisateur qui n'est pas prédictive et donc peut poser des problèmes sur la validité des informations. Alors, l'information de localisation n’est fiable que dans un certain intervalle de temps depuis le dernier étiquetage. La valeur de cet intervalle de temps (ex. t secondes) sera ajustée selon les scénarios de déploiement. Deuxièmement, nous améliorons la qualité de l'approche précédente en développant la deuxième approche basée sur des capteurs qui combine l'accéléromètre et le magnétomètre pour estimer la distance de déplacement de l'utilisateur. Avec l'objectif de permettre à l'utilisateur de tenir son terminal mobile commodément dans la main (multi-positions), la deuxième approche fournit un service de localisation caractérisant le degré de mouvement à l'utilisateur pour déterminer si l'utilisateur est au même endroit depuis le dernier étiquetage. Pour une longue trajectoire, cette approche permet de détecter que l'utilisateur a déjà déplacé à un autre endroit. Finalement, afin de surmonter les inconvénients de deux approches précédentes, nous proposons la troisième approche basée sur l'intensité du signal en utilisant la similarité des conditions radio entre proches voisins. Nous proposons une combinaison de la technologie NFC et WLAN pour construire la cartographie d'intensité du signal. La communication à courte portée NFC permet au système d’obtenir correctement les informations de position. Cette combinaison peut récupérer les données de l'intensité du signal radio à et les attribuer à une position connue sur la cartographie, sans exiger de phases hors ligne pour enregistrer l'intensité du signal radio.
Ubiquitous computing refers to providing a global computing service where the user access seamlessly resources. User…
Advisors/Committee Members: Banâtre, Michel (thesis director), Weis, Frédéric (thesis director).
Subjects/Keywords: Informatique diffuse; Localisation indoor, mouvement du terminal mobile; Senseurs embarqués; RFID; Réseau sans fil local; Puissance du signal des terminaux voisinages; Ubiquitous computing; Wireless LANs; RFID
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Ho, M. T. (2013). Mise en oeuvre d'un système de localisation indoor s'appuyant sur une analyse du mouvement d'un terminal embarqué : Implementation of an indoor localization system based on an analysis of the movement of an embedded device. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2013REN1S166
Chicago Manual of Style (16th Edition):
Ho, Minh Tuan. “Mise en oeuvre d'un système de localisation indoor s'appuyant sur une analyse du mouvement d'un terminal embarqué : Implementation of an indoor localization system based on an analysis of the movement of an embedded device.” 2013. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2013REN1S166.
MLA Handbook (7th Edition):
Ho, Minh Tuan. “Mise en oeuvre d'un système de localisation indoor s'appuyant sur une analyse du mouvement d'un terminal embarqué : Implementation of an indoor localization system based on an analysis of the movement of an embedded device.” 2013. Web. 08 Dec 2019.
Vancouver:
Ho MT. Mise en oeuvre d'un système de localisation indoor s'appuyant sur une analyse du mouvement d'un terminal embarqué : Implementation of an indoor localization system based on an analysis of the movement of an embedded device. [Internet] [Doctoral dissertation]. Rennes 1; 2013. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2013REN1S166.
Council of Science Editors:
Ho MT. Mise en oeuvre d'un système de localisation indoor s'appuyant sur une analyse du mouvement d'un terminal embarqué : Implementation of an indoor localization system based on an analysis of the movement of an embedded device. [Doctoral Dissertation]. Rennes 1; 2013. Available from: http://www.theses.fr/2013REN1S166
27.
Guyon, David.
Supporting energy-awareness for cloud users : Rendre les nuages plus verts grâce aux utilisateurs.
Degree: Docteur es, Informatique, 2018, Rennes 1
URL: http://www.theses.fr/2018REN1S037
► Les centres de calcul cloud consomment d'importantes quantités d'énergie et il devient nécessaire de réduire leur consommation en raison des changements climatiques actuels. Bien que…
(more)
▼ Les centres de calcul cloud consomment d'importantes quantités d'énergie et il devient nécessaire de réduire leur consommation en raison des changements climatiques actuels. Bien que des propositions d'optimisations énergétiques existent, elles ne tiennent pas compte des utilisateurs finaux. Cette thèse propose d'inclure les utilisateurs cloud dans l'optimisation énergétique afin de réduire la consommation d'énergie des centres de calcul. L'inclusion se fait, dans un premier temps, en délivrant une information énergétique pour sensibiliser, puis dans un second temps, en fournissant des moyens d'action. Les contributions portent sur les couches cloud IaaS et PaaS. Nos résultats montrent que les utilisateurs tolérants à la variation des performances (e.g. retarder l'obtention de résultats) permettent de réduire la consommation d'énergie des centres de calcul.
Cloud datacenters consume large amounts of energy and it becomes necessary to reduce their consumption due to current climate changes. Although energy optimization propositions exist, they do not take into account end-users. This thesis proposes to include cloud users in the energy optimization as a means to reduce datacenters energy consumption. The inclusion is done, first, by delivering energy related information to raise awareness, and second, by providing means of actions. Contributions are located at IaaS and PaaS cloud layers. Our results show that users tolerant to performance variation (e.g. delay in obtaining execution results) allow to reduce datacenters energy consumption.
Advisors/Committee Members: Morin, Christine (thesis director), Orgerie, Anne-Cécile (thesis director).
Subjects/Keywords: Informatique en nuages; Consommation électrique; Optimisation énergétique; Inclusion utilisateur; Consolidation de ressources; Cloud computing; Energy consumption; Energy optimization; User inclusion; Resources consolidation
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Guyon, D. (2018). Supporting energy-awareness for cloud users : Rendre les nuages plus verts grâce aux utilisateurs. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2018REN1S037
Chicago Manual of Style (16th Edition):
Guyon, David. “Supporting energy-awareness for cloud users : Rendre les nuages plus verts grâce aux utilisateurs.” 2018. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2018REN1S037.
MLA Handbook (7th Edition):
Guyon, David. “Supporting energy-awareness for cloud users : Rendre les nuages plus verts grâce aux utilisateurs.” 2018. Web. 08 Dec 2019.
Vancouver:
Guyon D. Supporting energy-awareness for cloud users : Rendre les nuages plus verts grâce aux utilisateurs. [Internet] [Doctoral dissertation]. Rennes 1; 2018. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2018REN1S037.
Council of Science Editors:
Guyon D. Supporting energy-awareness for cloud users : Rendre les nuages plus verts grâce aux utilisateurs. [Doctoral Dissertation]. Rennes 1; 2018. Available from: http://www.theses.fr/2018REN1S037
28.
Bois, Rémi.
Hypergraphes multimédias dirigés navigables, construction et exploitation : Navigable directed multimedia hypergraphs, construction and exploitation.
Degree: Docteur es, Informatique, 2017, Rennes 1
URL: http://www.theses.fr/2017REN1S107
► Cette thèse en informatique s'intéresse à la structuration et à l'exploration de collections journalistiques. Elle fait appel à plusieurs domaines de recherche : sciences sociales,…
(more)
▼ Cette thèse en informatique s'intéresse à la structuration et à l'exploration de collections journalistiques. Elle fait appel à plusieurs domaines de recherche : sciences sociales, à travers l'étude de la production journalistique ; ergonomie ; traitement des langues et la recherche d'information ; multimédia et notamment la recherche d'information multimédia. Une branche de la recherche d'information multimédia, appelée hyperliage, constitue la base sur laquelle cette thèse est construite. L'hyperliage consiste à construire automatiquement des liens entre documents multimédias. Nous étendons ce concept en l'appliquant à l'entièreté d'une collection afin d'obtenir un hypergraphe, et nous intéressons notamment à ses caractéristiques topologiques et à leurs conséquences sur l'explorabilité de la structure construite. Nous proposons dans cette thèse des améliorations de l'état de l'art selon trois axes principaux : une structuration de collections d'actualités à l'aide de graphes mutli-sources et multimodaux fondée sur la création de liens inter-documents, son association à une diversité importante des liens permettant de représenter la grande variété des intérêts que peuvent avoir différents utilisateurs, et enfin l'ajout d'un typage des liens créés permettant d'expliciter la relation existant entre deux documents. Ces différents apports sont renforcés par des études utilisateurs démontrant leurs intérêts respectifs.
This thesis studies the structuring and exploration of news collections. While its main focus is on natural language processing and multimedia retrieval, it also deals with social studies through the study of the production of news and ergonomy through the conduct of user tests. The task of hyperlinking, which was recently put forward by the multimedia retrieval community, is at the center of this thesis. Hyperlinking consists in automatically finding relevant links between multimedia segments. We apply this concept to whole news collections, resulting in the creation of a hypergraph, and study the topological properties and their influence on the explorability of the resulting structure. In this thesis, we provide improvements beyond the state of the art along three main {axes:} a structuring of news collections by means of mutli-sources and multimodal graphs based on the creation of inter-document links, its association with a large diversity of links allowing to represent the variety of interests that different users may have, and a typing of the created links in order to make the nature of the relation between two documents explicit. Extensive user studies confirm the interest of the methods developped in this thesis.
Advisors/Committee Members: Gravier, Guillaume (thesis director), Sébillot, Pascale (thesis director).
Subjects/Keywords: Recherche d'information multimédia; Traitement automatique des langues; Diversité; Hypergraphe; Multimedia retrieval; Natural language processing; Diversity; Hypergraph
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Bois, R. (2017). Hypergraphes multimédias dirigés navigables, construction et exploitation : Navigable directed multimedia hypergraphs, construction and exploitation. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2017REN1S107
Chicago Manual of Style (16th Edition):
Bois, Rémi. “Hypergraphes multimédias dirigés navigables, construction et exploitation : Navigable directed multimedia hypergraphs, construction and exploitation.” 2017. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2017REN1S107.
MLA Handbook (7th Edition):
Bois, Rémi. “Hypergraphes multimédias dirigés navigables, construction et exploitation : Navigable directed multimedia hypergraphs, construction and exploitation.” 2017. Web. 08 Dec 2019.
Vancouver:
Bois R. Hypergraphes multimédias dirigés navigables, construction et exploitation : Navigable directed multimedia hypergraphs, construction and exploitation. [Internet] [Doctoral dissertation]. Rennes 1; 2017. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2017REN1S107.
Council of Science Editors:
Bois R. Hypergraphes multimédias dirigés navigables, construction et exploitation : Navigable directed multimedia hypergraphs, construction and exploitation. [Doctoral Dissertation]. Rennes 1; 2017. Available from: http://www.theses.fr/2017REN1S107
29.
Spica, Riccardo.
Contributions to active visual estimation and control of robotic systems : Contributions à la perception active et à la commande de systèmes robotiques.
Degree: Docteur es, Traitement du signal et télécommunications, 2015, Rennes 1
URL: http://www.theses.fr/2015REN1S080
► L'exécution d'une expérience scientifique est un processus qui nécessite une phase de préparation minutieuse et approfondie. Le but de cette phase est de s'assurer que…
(more)
▼ L'exécution d'une expérience scientifique est un processus qui nécessite une phase de préparation minutieuse et approfondie. Le but de cette phase est de s'assurer que l'expérience donne effectivement le plus de renseignements possibles sur le processus que l'on est en train d'observer, de manière à minimiser l'effort (en termes, par exemple, du nombre d'essais ou de la durée de chaque expérience) nécessaire pour parvenir à une conclusion digne de confiance. De manière similaire, la perception est un processus actif dans lequel l'agent percevant (que ce soit un humain, un animal ou un robot) fait de son mieux pour maximiser la quantité d'informations acquises sur l'environnement en utilisant ses capacités de détection et ses ressources limitées. Dans de nombreuses applications robotisées, l'état d'un robot peut être partiellement récupéré par ses capteurs embarqués. Des schémas d'estimation peuvent être exploités pour récupérer en ligne les «informations manquantes» et les fournir à des planificateurs/contrôleurs de mouvement, à la place des états réels non mesurables. Cependant, l'estimation doit souvent faire face aux relations non linéaires entre l'environnement et les mesures des capteurs qui font que la convergence et la précision de l'estimation sont fortement affectées par la trajectoire suivie par le robot/capteur. Par exemple, les techniques de commande basées sur la vision, telles que l'Asservissement Visuel Basé-Image (IBVS), exigent normalement une certaine connaissance de la structure 3-D de la scène qui ne peut pas être extraite directement à partir d'une seule image acquise par la caméra. On peut exploiter un processus d'estimation (“Structure from Motion - SfM”) pour reconstruire ces informations manquantes. Toutefois, les performances d'un estimateur SfM sont grandement affectées par la trajectoire suivie par la caméra pendant l'estimation, créant ainsi un fort couplage entre mouvement de la caméra (nécessaire pour, par exemple, réaliser une tâche visuelle) et performance/précision de l'estimation 3-D. À cet égard, une contribution de cette thèse est le développement d'une stratégie d'optimisation en ligne de trajectoire qui permet de maximiser le taux de convergence d'un estimateur SfM affectant (activement) le mouvement de la caméra. L'optimisation est basée sur des conditions classiques de persistance d'excitation utilisée en commande adaptative pour caractériser le conditionnement d'un problème d'estimation. Cette mesure est aussi fortement liée à la matrice d'information de Fisher employée dans le cadre d'estimation probabiliste à des fins similaires. Nous montrons aussi comment cette technique peut être couplé avec l'exécution simultanée d'une tâche d'asservissement visuel en utilisant des techniques de résolution et de maximisation de la redondance. Tous les résultats théoriques présentés dans cette thèse sont validés par une vaste campagne expérimentale en utilisant un robot manipulateur équipé d'une caméra embarquée.
As every scientist and engineer knows, running an experiment requires a…
Advisors/Committee Members: Chaumette, François (thesis director).
Subjects/Keywords: Robotique; Traitement du signal; Vision par ordinateur; Perception active; Asservissement visuel; Robotics; Signal processing; Computer vision; Active perception; Vision-Based control
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Spica, R. (2015). Contributions to active visual estimation and control of robotic systems : Contributions à la perception active et à la commande de systèmes robotiques. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2015REN1S080
Chicago Manual of Style (16th Edition):
Spica, Riccardo. “Contributions to active visual estimation and control of robotic systems : Contributions à la perception active et à la commande de systèmes robotiques.” 2015. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2015REN1S080.
MLA Handbook (7th Edition):
Spica, Riccardo. “Contributions to active visual estimation and control of robotic systems : Contributions à la perception active et à la commande de systèmes robotiques.” 2015. Web. 08 Dec 2019.
Vancouver:
Spica R. Contributions to active visual estimation and control of robotic systems : Contributions à la perception active et à la commande de systèmes robotiques. [Internet] [Doctoral dissertation]. Rennes 1; 2015. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2015REN1S080.
Council of Science Editors:
Spica R. Contributions to active visual estimation and control of robotic systems : Contributions à la perception active et à la commande de systèmes robotiques. [Doctoral Dissertation]. Rennes 1; 2015. Available from: http://www.theses.fr/2015REN1S080
30.
Srinivasan, Bhuvanesh.
Novel chalcogenide based glasses, ceramics and polycrystalline materials for thermoelectric application : Développement de verres, vitro-céramiques et céramiques de chalcogénures pour des applications en thermoélectricité.
Degree: Docteur es, Sciences des matériaux, 2018, Rennes 1
URL: http://www.theses.fr/2018REN1S036
► L'intérêt porté au développement de matériaux thermoélectriques est grandissant car ils permettent de créer des sources d'énergie renouvelable, dites « vertes », ce qui s'inscrit…
(more)
▼ L'intérêt porté au développement de matériaux thermoélectriques est grandissant car ils permettent de créer des sources d'énergie renouvelable, dites « vertes », ce qui s'inscrit pleinement dans la stratégie de lutte contre le réchauffement climatique. A ce jour le rendement de tels systèmes reste faible, le coût de développement élevé, et les plages de températures d'utilisation sont limitées. Dans ces travaux de thèse différentes pistes sont explorées pour développer des matériaux innovants à base de chalcogènes, principalement le tellure. Les principaux résultats portent sur les points suivants. (i) Une étude par spectroscopies couplée à des calculs théoriques a permis de mieux comprendre les phénomènes de conduction dans les verres du système Cu-As-Te. (ii) La recristallisation complète de verres de formulation Ge20Te77Se3 dopés a été réalisée pour pousser à son terme la logique dite du Phonon Glass Electron Crystal (PGEC).(iii) Différents modes de synthèses ont été mis en œuvre pour suivre les propriétés thermoélectriques de matériaux de formulation CuPb18SbTe20 (frittage, SPS, flash-SPS, hybrid flash-SPS). (iv) Accroissement de 170% des performances d'alliage du système Pb-Sb-Te en générant des vacances de sites (composés non-stœchiométriques). (v) Le suivi des conséquences du dopage de GeTe par un seul élément a montré la nécessité d'un co-dopage pour simultanément accroître la conductivité électronique et le Seebeck. (vi) Le co-dopage In-Bi de GeTe a permis de créer des niveaux résonants (In) et d'accroitre la diffusion thermique (Bi). (vii) Enfin, le résultat le plus remarquable porte sur le co-dopage Ga-Sb de GeTe qui permet d'effectuer de l'ingénierie de structure de bandes. Couplé à une synthèse par hybrid flash SPS ces matériaux prometteurs permettent d'obtenir un zT 2 sur une large gamme de température (600–773 K).
With the performance of direct conversion between thermal and electrical energy, thermoelectric materials, which are crucial in the renewable energy conversion roadmap, provide an alternative for power generation and refrigeration to solve the global energy crisis. But the low efficiency of the current materials, their usual costs, availability, and limited working temperatures, drastically constrain their application. Hence, the search for new and more efficient thermoelectric materials is one of the most dynamic objectives of this thesis. The key milestones achieved from this thesis work includes: (i) elucidating the mechanism for hole conductivity in Cu-As-Te glasses by X-ray absorption spectroscopy and quantum simulations; (ii) formulating a novel approach to achieve phonon-glass electron-crystal mechanism by crystallizing the Ge20Te77Se3 glasses by excess doping with metals or semi-metals (glass-ceramics); (iii) demonstrating the effect of processing route on the thermoelectric performance of CuPb18SbTe20 and highlighting the advantage of hybrid-flash spark plasma sintering technique, i.e., better optimization of electrical and thermal transport properties and achieving multi-scale…
Advisors/Committee Members: Bureau, Bruno (thesis director), Boussard-Pledel, Catherine (thesis director).
Subjects/Keywords: Thermoélectricité; Chalcogénures; Nano-Structuration; Dopage; Ingénierie de bandes; GeTe; Thermoelectrics; Chalcogenides, Material Processing; Nanostructuring; Band Engineering; GeTe
Record Details
Similar Records
Cite
Share »
Record Details
Similar Records
Cite
« Share





❌
APA ·
Chicago ·
MLA ·
Vancouver ·
CSE |
Export
to Zotero / EndNote / Reference
Manager
APA (6th Edition):
Srinivasan, B. (2018). Novel chalcogenide based glasses, ceramics and polycrystalline materials for thermoelectric application : Développement de verres, vitro-céramiques et céramiques de chalcogénures pour des applications en thermoélectricité. (Doctoral Dissertation). Rennes 1. Retrieved from http://www.theses.fr/2018REN1S036
Chicago Manual of Style (16th Edition):
Srinivasan, Bhuvanesh. “Novel chalcogenide based glasses, ceramics and polycrystalline materials for thermoelectric application : Développement de verres, vitro-céramiques et céramiques de chalcogénures pour des applications en thermoélectricité.” 2018. Doctoral Dissertation, Rennes 1. Accessed December 08, 2019.
http://www.theses.fr/2018REN1S036.
MLA Handbook (7th Edition):
Srinivasan, Bhuvanesh. “Novel chalcogenide based glasses, ceramics and polycrystalline materials for thermoelectric application : Développement de verres, vitro-céramiques et céramiques de chalcogénures pour des applications en thermoélectricité.” 2018. Web. 08 Dec 2019.
Vancouver:
Srinivasan B. Novel chalcogenide based glasses, ceramics and polycrystalline materials for thermoelectric application : Développement de verres, vitro-céramiques et céramiques de chalcogénures pour des applications en thermoélectricité. [Internet] [Doctoral dissertation]. Rennes 1; 2018. [cited 2019 Dec 08].
Available from: http://www.theses.fr/2018REN1S036.
Council of Science Editors:
Srinivasan B. Novel chalcogenide based glasses, ceramics and polycrystalline materials for thermoelectric application : Développement de verres, vitro-céramiques et céramiques de chalcogénures pour des applications en thermoélectricité. [Doctoral Dissertation]. Rennes 1; 2018. Available from: http://www.theses.fr/2018REN1S036
◁ [1] [2] [3] ▶
.