Advanced search options

Advanced Search Options 🞨

Browse by author name (“Author name starts with…”).

Find ETDs with:

in
/  
in
/  
in
/  
in

Written in Published in Earliest date Latest date

Sorted by

Results per page:

Sorted by: relevance · author · university · dateNew search

You searched for subject:(Incremental Consistency). Showing records 1 – 2 of 2 total matches.

Search Limiters

Last 2 Years | English Only

No search limiters apply to these results.

▼ Search Limiters

1. Ha, Viet Hai. Optimization of memory management on distributed machine : Optimisation de la gestion mémoire sur machines distribuées.

Degree: Docteur es, Informatique, 2012, Evry, Institut national des télécommunications

Afin d'exploiter les capacités des architectures parallèles telles que les grappes, les grilles, les systèmes multi-processeurs, et plus récemment les nuages et les systèmes multi-cœurs, un langage de programmation universel et facile à utiliser reste à développer. Du point de vue du programmeur, OpenMP est très facile à utiliser en grande partie grâce à sa capacité à supporter une parallélisation incrémentale, la possibilité de définir dynamiquement le nombre de fils d'exécution, et aussi grâce à ses stratégies d'ordonnancement. Cependant, comme il a été initialement conçu pour des systèmes à mémoire partagée, OpenMP est généralement très limité pour effectuer des calculs sur des systèmes à mémoire distribuée. De nombreuses solutions ont été essayées pour faire tourner OpenMP sur des systèmes à mémoire distribuée. Les approches les plus abouties se concentrent sur l’exploitation d’une architecture réseau spéciale et donc ne peuvent fournir une solution ouverte. D'autres sont basées sur une solution logicielle déjà disponible telle que DMS, MPI ou Global Array, et par conséquent rencontrent des difficultés pour fournir une implémentation d'OpenMP complètement conforme et à haute performance. CAPE — pour Checkpointing Aided Parallel Execution — est une solution alternative permettant de développer une implémentation conforme d'OpenMP pour les systèmes à mémoire distribuée. L'idée est la suivante : en arrivant à une section parallèle, l'image du thread maître est sauvegardé et est envoyée aux esclaves ; puis, chaque esclave exécute l'un des threads ; à la fin de la section parallèle, chaque threads esclaves extraient une liste de toutes modifications ayant été effectuées localement et la renvoie au thread maître ; le thread maître intègre ces modifications et reprend son exécution. Afin de prouver la faisabilité de cette approche, la première version de CAPE a été implémentée en utilisant des points de reprise complets. Cependant, une analyse préliminaire a montré que la grande quantité de données transmises entre les threads et l’extraction de la liste des modifications depuis les points de reprise complets conduit à de faibles performances. De plus, cette version est limitée à des problèmes parallèles satisfaisant les conditions de Bernstein, autrement dit, il ne permet pas de prendre en compte les données partagées. L'objectif de cette thèse est de proposer de nouvelles approches pour améliorer les performances de CAPE et dépasser les restrictions sur les données partagées. Tout d'abord, nous avons développé DICKPT (Discontinuous Incremental ChecKPoinTing), une technique points de reprise incrémentaux qui supporte la possibilité de prendre des points de reprise discontinue lors de l'exécution d'un processus. Basé sur DICKPT, la vitesse d'exécution de la nouvelle version de CAPE a été considérablement augmenté. Par exemple, le temps de calculer une grande multiplication matrice-matrice sur un cluster des ordinateurs bureaux est devenu très similaire à la durée d'exécution d'un programme MPI optimisé. En outre,… Advisors/Committee Members: Renault, Éric (thesis director).

Subjects/Keywords: CAPE; Open MP; DICKPT; UHLRC; Mémoire distribuée; Parallèlisme; CAPE; Chekpointing aided parallel execution; Open MP compliance; DICKPT; Discontinuous incremental checkpointing; UHLRC; Updated home-based lazy relaxed consistency; Distributed memory system; Parallel computing

Record DetailsSimilar RecordsGoogle PlusoneFacebookTwitterCiteULikeMendeleyreddit

APA · Chicago · MLA · Vancouver · CSE | Export to Zotero / EndNote / Reference Manager

APA (6th Edition):

Ha, V. H. (2012). Optimization of memory management on distributed machine : Optimisation de la gestion mémoire sur machines distribuées. (Doctoral Dissertation). Evry, Institut national des télécommunications. Retrieved from http://www.theses.fr/2012TELE0042

Chicago Manual of Style (16th Edition):

Ha, Viet Hai. “Optimization of memory management on distributed machine : Optimisation de la gestion mémoire sur machines distribuées.” 2012. Doctoral Dissertation, Evry, Institut national des télécommunications. Accessed September 19, 2020. http://www.theses.fr/2012TELE0042.

MLA Handbook (7th Edition):

Ha, Viet Hai. “Optimization of memory management on distributed machine : Optimisation de la gestion mémoire sur machines distribuées.” 2012. Web. 19 Sep 2020.

Vancouver:

Ha VH. Optimization of memory management on distributed machine : Optimisation de la gestion mémoire sur machines distribuées. [Internet] [Doctoral dissertation]. Evry, Institut national des télécommunications; 2012. [cited 2020 Sep 19]. Available from: http://www.theses.fr/2012TELE0042.

Council of Science Editors:

Ha VH. Optimization of memory management on distributed machine : Optimisation de la gestion mémoire sur machines distribuées. [Doctoral Dissertation]. Evry, Institut national des télécommunications; 2012. Available from: http://www.theses.fr/2012TELE0042


Brigham Young University

2. Pace, Aaron J. Guided Interactive Machine Learning.

Degree: MS, 2006, Brigham Young University

This thesis describes a combination of two current areas of research: the Crayons image classifier system and active learning. Currently Crayons provides no guidance to the user in what pixels should be labeled or when the task is complete. This work focuses on two main areas: 1) active learning for user guidance, and 2) accuracy estimation as a measure of completion. First, I provide a study through simulation and user experiments of seven active learning techniques as they relate to Crayons. Three of these techniques were specifically designed for use in Crayons. These three perform comparably to the others and are much less computationally intensive. A new widget is proposed for use in the Crayons environment giving an overview of the system "confusion". Second, I give a comparison of four accuracy estimation techniques relating to true accuracy and for use as a completion estimate. I show how three traditional accuracy estimation techniques are ineffective when placed in the Crayons environment. The fourth technique uses the same computation as the three new active learning techniques proposed in this work and thus requires little extra computation and outstrips the other three as a completion estimate both in simulation and user experiments.

Subjects/Keywords: Active Learning; Crayons; Confusion; Iterative Committee; Iterative Committee Correction; ICC; Distribution; Guidance; Thermometer Widget; Accuracy Estimation; Incremental Consistency; Image Classifier; Computer Sciences

Record DetailsSimilar RecordsGoogle PlusoneFacebookTwitterCiteULikeMendeleyreddit

APA · Chicago · MLA · Vancouver · CSE | Export to Zotero / EndNote / Reference Manager

APA (6th Edition):

Pace, A. J. (2006). Guided Interactive Machine Learning. (Masters Thesis). Brigham Young University. Retrieved from https://scholarsarchive.byu.edu/cgi/viewcontent.cgi?article=1476&context=etd

Chicago Manual of Style (16th Edition):

Pace, Aaron J. “Guided Interactive Machine Learning.” 2006. Masters Thesis, Brigham Young University. Accessed September 19, 2020. https://scholarsarchive.byu.edu/cgi/viewcontent.cgi?article=1476&context=etd.

MLA Handbook (7th Edition):

Pace, Aaron J. “Guided Interactive Machine Learning.” 2006. Web. 19 Sep 2020.

Vancouver:

Pace AJ. Guided Interactive Machine Learning. [Internet] [Masters thesis]. Brigham Young University; 2006. [cited 2020 Sep 19]. Available from: https://scholarsarchive.byu.edu/cgi/viewcontent.cgi?article=1476&context=etd.

Council of Science Editors:

Pace AJ. Guided Interactive Machine Learning. [Masters Thesis]. Brigham Young University; 2006. Available from: https://scholarsarchive.byu.edu/cgi/viewcontent.cgi?article=1476&context=etd

.