قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة
90 résultat(s)
Affiner la recherche
Affiner la recherche
Amélioration des performances des réseaux bayésiens dans le domaine médical / BENMOUNA, Youcef
Titre : Amélioration des performances des réseaux bayésiens dans le domaine médical Type de document : texte imprimé Auteurs : BENMOUNA, Youcef, Auteur ; Chikh, Mohamed Amine, Auteur Editeur : Université tlemcen Année de publication : 2019 Importance : 142 p. Présentation : ill. Format : 30 cm Accompagnement : cd Langues : Français (fre) Résumé : Cette thèse s’articule autour de quatres chapitres :
Le premier chapitre présente le concept de l’incertitude, ses typologies ainsi
que son implication dans différents domaines. Ce chapitre aborde également la
décision médicale qui se base sur des données prises des sources différentes, qui
sont généralement incertaines. Par la suite nous décrivons les réseaux Bayésiens,
leurs propriétés et les étapes de construction de ces modèles. Á la fin de ce chapitre
nous présentons la méthode Branch&Bound que nous avons adopté pour la
construction de structure du Réseau Bayésien.
Le deuxième chapitre est consacré pour les différents algorithmes utilisés pour
l’apprentissage de structure des réseaux bayésiens. Où, nous présentons quelques
méthodes approximatives et d’autre exactes avec plus de détails.
Le troisième chapitre décrit quelques travaux proposés dans le domaine médical,
où nous nous sommes intéressés à l’implication des réseaux bayésiens dans
le processus décisionnel. Ces techniques ont pour objectif la construction des modèles
à partir des données requises et des experts, pour aider le médecin à prendre
des meilleures décisions.
Le quatrième et dernier chapitre est destiné à la présentation de nos contributions
; nous commençons par une description détaillée de l’algorithmeB&B
standard, dédié pour l’ASRB, ensuite, nous montrons ses limitations afin de proposer
de nouvelles améliorations. Puis nous exposons la première et la deuxième
contribution consacrées aux stratégies du parcours et de branchement. Juste après
l’opérateur du bornage et le procédé du parallélisme constituent le fondement de
la troisième et quatrième contribution. Chacune de ces propositions est sanctionnée
par des expérimentations et des discussions.
Finalement, une conclusion termine ce document et rappelle les principales
contributions élaborées tout au long de ce travail. Elle présente également les
perspectives relatives aux résultats obtenusAmélioration des performances des réseaux bayésiens dans le domaine médical [texte imprimé] / BENMOUNA, Youcef, Auteur ; Chikh, Mohamed Amine, Auteur . - Université tlemcen, 2019 . - 142 p. : ill. ; 30 cm + cd.
Langues : Français (fre)
Résumé : Cette thèse s’articule autour de quatres chapitres :
Le premier chapitre présente le concept de l’incertitude, ses typologies ainsi
que son implication dans différents domaines. Ce chapitre aborde également la
décision médicale qui se base sur des données prises des sources différentes, qui
sont généralement incertaines. Par la suite nous décrivons les réseaux Bayésiens,
leurs propriétés et les étapes de construction de ces modèles. Á la fin de ce chapitre
nous présentons la méthode Branch&Bound que nous avons adopté pour la
construction de structure du Réseau Bayésien.
Le deuxième chapitre est consacré pour les différents algorithmes utilisés pour
l’apprentissage de structure des réseaux bayésiens. Où, nous présentons quelques
méthodes approximatives et d’autre exactes avec plus de détails.
Le troisième chapitre décrit quelques travaux proposés dans le domaine médical,
où nous nous sommes intéressés à l’implication des réseaux bayésiens dans
le processus décisionnel. Ces techniques ont pour objectif la construction des modèles
à partir des données requises et des experts, pour aider le médecin à prendre
des meilleures décisions.
Le quatrième et dernier chapitre est destiné à la présentation de nos contributions
; nous commençons par une description détaillée de l’algorithmeB&B
standard, dédié pour l’ASRB, ensuite, nous montrons ses limitations afin de proposer
de nouvelles améliorations. Puis nous exposons la première et la deuxième
contribution consacrées aux stratégies du parcours et de branchement. Juste après
l’opérateur du bornage et le procédé du parallélisme constituent le fondement de
la troisième et quatrième contribution. Chacune de ces propositions est sanctionnée
par des expérimentations et des discussions.
Finalement, une conclusion termine ce document et rappelle les principales
contributions élaborées tout au long de ce travail. Elle présente également les
perspectives relatives aux résultats obtenusExemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité T08687 EDOC004-31/ 01 Thèse قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Exclu du prêt Analyse de la diffusion de l’information dans les réseaux sociaux / NAIT-HAMOUD, Mohamed Cherif
Titre : Analyse de la diffusion de l’information dans les réseaux sociaux Type de document : texte imprimé Auteurs : NAIT-HAMOUD, Mohamed Cherif, Auteur ; LAHFA, Fedoua, Auteur Editeur : Univ tlemcen Année de publication : 2021 Importance : 85 p. Présentation : ill. Format : 30 cm Accompagnement : cd Langues : Français (moyen) (frm) Résumé : Les médias sociaux sont devenus un vecteur d’information puissant, ils ont supplanté
les médias traditionnels et bouleversé notre façon de produire, et de consommer
l’information. Le but de cette thèse est de fournir des outils de synthèse et
d’analyse de la diffusion de l’information dans les réseaux sociaux. Nos contributions
touchent deux domaines différents en l’occurrence: (i) le Traitement Automatique
du Langage Naturel (TALN), et (ii) la fouille des flots de données issues des
réseaux sociaux. A cet effet, dans le but d’extraire la sémantique à partir d’un tweet,
nous avons introduits un nouveau système baptisé TELS ("Tweet Entity Linking System")
pour l’extraction et la désambiguïsation des entités mentionnées dans les messages
publiés sur Twitter. Par ailleurs, le domaine d’Extraction et de Liaison des Entités
(ELE) présente un manque de définition formelle. Particulièrement, il n’existe
aucun consensus sur ce qui doit être extrait du texte d’un tweet. Dans l’optique de
remédier à ce problème, nous avons aussi proposé un ensemble de règles et de directives
d’annotation des bases de référence qui offrent un meilleur consensus autours
de la tâche ELE. Notre deuxième contribution concerne le domaine de fouille de flots
de données issues des réseaux sociaux. A cet effet, nous avons proposé le système
Semantic-InFlowMine pour la détection des chemins fréquents de l’information (cascades
ou avalanches d’informations), et la détection des influenceurs en utilisant
la sémantique des contenus échangés entre les utilisateurs. Le système proposé
Semantic-InFlowMine, qui utilise le système TELS, est basé sur l’algorithme évolutif
de l’état de l’art InFlowMine que nous avons contribué à améliorer. Les divers expérimentations
montrent que notre approche permet de recouvrer de l’information
perdue lorsque l’analyse est conduite en considérant uniquement des marqueurs
tels que, les hashtags ou les hyperliens.Analyse de la diffusion de l’information dans les réseaux sociaux [texte imprimé] / NAIT-HAMOUD, Mohamed Cherif, Auteur ; LAHFA, Fedoua, Auteur . - Univ tlemcen, 2021 . - 85 p. : ill. ; 30 cm + cd.
Langues : Français (moyen) (frm)
Résumé : Les médias sociaux sont devenus un vecteur d’information puissant, ils ont supplanté
les médias traditionnels et bouleversé notre façon de produire, et de consommer
l’information. Le but de cette thèse est de fournir des outils de synthèse et
d’analyse de la diffusion de l’information dans les réseaux sociaux. Nos contributions
touchent deux domaines différents en l’occurrence: (i) le Traitement Automatique
du Langage Naturel (TALN), et (ii) la fouille des flots de données issues des
réseaux sociaux. A cet effet, dans le but d’extraire la sémantique à partir d’un tweet,
nous avons introduits un nouveau système baptisé TELS ("Tweet Entity Linking System")
pour l’extraction et la désambiguïsation des entités mentionnées dans les messages
publiés sur Twitter. Par ailleurs, le domaine d’Extraction et de Liaison des Entités
(ELE) présente un manque de définition formelle. Particulièrement, il n’existe
aucun consensus sur ce qui doit être extrait du texte d’un tweet. Dans l’optique de
remédier à ce problème, nous avons aussi proposé un ensemble de règles et de directives
d’annotation des bases de référence qui offrent un meilleur consensus autours
de la tâche ELE. Notre deuxième contribution concerne le domaine de fouille de flots
de données issues des réseaux sociaux. A cet effet, nous avons proposé le système
Semantic-InFlowMine pour la détection des chemins fréquents de l’information (cascades
ou avalanches d’informations), et la détection des influenceurs en utilisant
la sémantique des contenus échangés entre les utilisateurs. Le système proposé
Semantic-InFlowMine, qui utilise le système TELS, est basé sur l’algorithme évolutif
de l’état de l’art InFlowMine que nous avons contribué à améliorer. Les divers expérimentations
montrent que notre approche permet de recouvrer de l’information
perdue lorsque l’analyse est conduite en considérant uniquement des marqueurs
tels que, les hashtags ou les hyperliens.Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité T09817 EDOC004-58/ 01 Thèse قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Exclu du prêt Approche Dirigée par les Modèles pour le Développement des Applications Sensibles au Contexte à Base de Services / BOUDAA, Boudjemaa
Titre : Approche Dirigée par les Modèles pour le Développement des Applications Sensibles au Contexte à Base de Services Type de document : texte imprimé Auteurs : BOUDAA, Boudjemaa, Auteur ; Chikh Mohammed Amine, Auteur Editeur : Université tlemcen Année de publication : 2017 Importance : 118 p. Présentation : ill. Format : 30 cm Accompagnement : cd Langues : Français (fre) Résumé : Contexte : Le développement des applications sensibles au contexte à base de services a été
considéré parmi les domaines de recherche les plus étudiés dans la dernière décennie.
L'objectif était d'accompagner l'évolution rapide de la technologie des appareils informatiques
mobiles en fournissant des services personnalisés capables d'interagir avec différentes
situations contextuelles dans un environnement pervasive. A cet effet, de nombreux travaux
de recherche ont préconisé le développement dirigé par les modèles (MDD) pour construire
des applications sensibles au contexte à base de services. Cependant, les approches proposées
ont présenté des méthodologies spécifiques sans utiliser des normes générales de
développement qui peuvent être suivies par les développeurs. En outre, la plupart d'entre eux
ont ignoré l'aspect d'adaptation dynamique à l'exécution qui doit caractériser ce type
d'applications et aucune stratégie d’adaptation n’a été prise en compte dans leurs propositions.
Objectif : La présente thèse a pour but de proposer une approche générique dirigée par les
modèles pour l'ingénierie des applications sensibles au contexte à base de services avec une
méthodologie de développement de logiciels incluant une boucle de reconfiguration pour
réaliser l'adaptation dynamique de ces applications.
Méthode : Cette approche met l'accent sur la combinaison de MDD et la modélisation
orientée aspect (AOM) pour tirer parti de leurs avantages. AOM encapsule les différentes
logiques de sensibilité au contexte séparément dans des modèles d'aspect appelé
ContextAspect qui peuvent facilement être tissés dans la logique métier du service en fonction
de l'évolution du contexte au fil du temps. La méthodologie de développement proposée
comprend quatre phases (modélisation, composition, transformation et adaptation) qui
agissent en conformité avec la technologie MDA.
Résultats : Les principaux résultats obtenus à l'aide de l'approche actuelle sont la possibilité
de combiner la technologie MDA avec le paradigme orienté aspect dans une méthodologie de
développement générique pour les applications sensibles au contexte à base de services, et le
traitement de leur adaptation dynamique au moment de l'exécution en fonction de l'évolution
du contexte.
Conclusion: Le développement des applications sensibles au contexte est une tâche
complexe, lourde, et qui prend du temps. Cependant, l'expérience atteinte en mettant en oeuvre
la méthodologie proposée nous amène à croire que la combinaison de MDD et AOM est
nettement bénéfique pour surmonter certaines lacunes reconnues de plusieurs approches
existantes et de rendre cette tâche plus simple, plus facile et plus rapide.Approche Dirigée par les Modèles pour le Développement des Applications Sensibles au Contexte à Base de Services [texte imprimé] / BOUDAA, Boudjemaa, Auteur ; Chikh Mohammed Amine, Auteur . - Université tlemcen, 2017 . - 118 p. : ill. ; 30 cm + cd.
Langues : Français (fre)
Résumé : Contexte : Le développement des applications sensibles au contexte à base de services a été
considéré parmi les domaines de recherche les plus étudiés dans la dernière décennie.
L'objectif était d'accompagner l'évolution rapide de la technologie des appareils informatiques
mobiles en fournissant des services personnalisés capables d'interagir avec différentes
situations contextuelles dans un environnement pervasive. A cet effet, de nombreux travaux
de recherche ont préconisé le développement dirigé par les modèles (MDD) pour construire
des applications sensibles au contexte à base de services. Cependant, les approches proposées
ont présenté des méthodologies spécifiques sans utiliser des normes générales de
développement qui peuvent être suivies par les développeurs. En outre, la plupart d'entre eux
ont ignoré l'aspect d'adaptation dynamique à l'exécution qui doit caractériser ce type
d'applications et aucune stratégie d’adaptation n’a été prise en compte dans leurs propositions.
Objectif : La présente thèse a pour but de proposer une approche générique dirigée par les
modèles pour l'ingénierie des applications sensibles au contexte à base de services avec une
méthodologie de développement de logiciels incluant une boucle de reconfiguration pour
réaliser l'adaptation dynamique de ces applications.
Méthode : Cette approche met l'accent sur la combinaison de MDD et la modélisation
orientée aspect (AOM) pour tirer parti de leurs avantages. AOM encapsule les différentes
logiques de sensibilité au contexte séparément dans des modèles d'aspect appelé
ContextAspect qui peuvent facilement être tissés dans la logique métier du service en fonction
de l'évolution du contexte au fil du temps. La méthodologie de développement proposée
comprend quatre phases (modélisation, composition, transformation et adaptation) qui
agissent en conformité avec la technologie MDA.
Résultats : Les principaux résultats obtenus à l'aide de l'approche actuelle sont la possibilité
de combiner la technologie MDA avec le paradigme orienté aspect dans une méthodologie de
développement générique pour les applications sensibles au contexte à base de services, et le
traitement de leur adaptation dynamique au moment de l'exécution en fonction de l'évolution
du contexte.
Conclusion: Le développement des applications sensibles au contexte est une tâche
complexe, lourde, et qui prend du temps. Cependant, l'expérience atteinte en mettant en oeuvre
la méthodologie proposée nous amène à croire que la combinaison de MDD et AOM est
nettement bénéfique pour surmonter certaines lacunes reconnues de plusieurs approches
existantes et de rendre cette tâche plus simple, plus facile et plus rapide.Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité T08977 EDOC004-49/ 01 Thèse قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Exclu du prêt Approche MDA pour la construction d'interfaces homme-machine : cas de la multimodalité et de la plasticité / GAOUAR Lamia épse. BEKKARA
Titre : Approche MDA pour la construction d'interfaces homme-machine : cas de la multimodalité et de la plasticité Type de document : texte imprimé Auteurs : GAOUAR Lamia épse. BEKKARA, Auteur ; ENAMAR, Abdelkrim, Auteur Editeur : Université tlemcen Année de publication : 2019 Importance : 111 p. Présentation : ill. Format : 30 cm Accompagnement : cd Langues : Français (fre) Résumé : Dans le domaine de l’interface homme-machine, les défis à relever sont liés à la prise en compte
de multiples nouvelles interactions et à la diversité des dispositifs. Le large panel d'interactions
(toucher, vibration, reconnaissance vocale, géolocalisation ...) et la diversification des dispositifs
d'interaction peuvent être considérés comme un facteur de flexibilité, mais introduisant une
complexité inhérente. Notre travail s’inscrit dans le domaine des langages de description de
l'interface utilisateur. Cette thèse présente HCIDL, un langage de modélisation mis en scène dans
une approche MDA. Parmi les propriétés liées à l'interface homme-machine, notre proposition
est destinée à la modélisation d'interfaces d'interaction plastiques, multi-cibles et multimodales,
utilisant des langages de description d'interfaces utilisateur. En combinant la plasticité et la
multimodalité, HCIDL améliore la convivialité des interfaces utilisateur grâce à un
comportement adaptatif en fournissant aux utilisateurs finaux un ensemble d'interaction adapté
aux entrées/sorties des terminaux et une disposition optimale.Approche MDA pour la construction d'interfaces homme-machine : cas de la multimodalité et de la plasticité [texte imprimé] / GAOUAR Lamia épse. BEKKARA, Auteur ; ENAMAR, Abdelkrim, Auteur . - Université tlemcen, 2019 . - 111 p. : ill. ; 30 cm + cd.
Langues : Français (fre)
Résumé : Dans le domaine de l’interface homme-machine, les défis à relever sont liés à la prise en compte
de multiples nouvelles interactions et à la diversité des dispositifs. Le large panel d'interactions
(toucher, vibration, reconnaissance vocale, géolocalisation ...) et la diversification des dispositifs
d'interaction peuvent être considérés comme un facteur de flexibilité, mais introduisant une
complexité inhérente. Notre travail s’inscrit dans le domaine des langages de description de
l'interface utilisateur. Cette thèse présente HCIDL, un langage de modélisation mis en scène dans
une approche MDA. Parmi les propriétés liées à l'interface homme-machine, notre proposition
est destinée à la modélisation d'interfaces d'interaction plastiques, multi-cibles et multimodales,
utilisant des langages de description d'interfaces utilisateur. En combinant la plasticité et la
multimodalité, HCIDL améliore la convivialité des interfaces utilisateur grâce à un
comportement adaptatif en fournissant aux utilisateurs finaux un ensemble d'interaction adapté
aux entrées/sorties des terminaux et une disposition optimale.Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité T08806 EDOC004-37/ 01 Thèse قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Exclu du prêt Une approche orientée service pour la recherche sémantique de contenus multimédias / MIDOUNI, Sid Ahmed Djallal
Titre : Une approche orientée service pour la recherche sémantique de contenus multimédias Type de document : texte imprimé Auteurs : MIDOUNI, Sid Ahmed Djallal, Auteur ; AMGHAR, YOCEF, Auteur Editeur : Université tlemcen Année de publication : 2017 Importance : 159 p. Présentation : ill. Format : 30 cm Accompagnement : cd Langues : Français (fre) Langues originales : Français (fre) Résumé : Les sources de données multimédias provenant de divers domaines (médical, tourisme, commerce, art et culture, etc.) sont devenues incontournables sur le web. L’accès à ces sources multimédias dans les systèmes distribués pose de nouveaux problèmes en raison de nombreux paramètres : volumétrie, diversité des interfaces, format de représentation, localisation, etc. En outre, l’exigence de plus en plus forte des utilisateurs et des applications à vouloir intégrer la sémantique dans la recherche d’information pose de nouvelles questions à résoudre. Pour prendre en compte cette nouvelle complexité, nous nous intéressons dans notre travail de recherche aux solutions d’intégration de données basées sur les services web.
Dans cette thèse, nous proposons une approche orientée service pour la recherche sémantique de contenus multimédia. Nous avons appelé cette approche SeSaM (Semantic Search of Multimedia content). SeSaM repose sur la définition d’un nouveau type de services accédant aux contenus multimédias, qui est les services MaaS (Multimedia as a Services). Elle est basée sur un processus en deux phases : description et découverte des services MaaS. En ce qui concerne la description de services MaaS, nous avons défini le langage SA4MaaS (Semantic Annotation for MaaS services), qui est une extension de SAWSDL (recommandation W3C). L’idée principale de ce langage est l’intégration, en plus de la sémantique métier, de la sémantique de l’information multimédia dans la description des services MaaS.
En ce qui concerne la découverte de services MaaS, nous avons proposé un nouveau matchmaker MaaS-MX (MaaS services Matchmaker) adapté au modèle de description des MaaS. MaaS-MX est composé de deux étapes primordiales : appariement métier et appariement multimédia. L’appariement métier consiste à comparer la description métier des services et de la requête, tandis que l’appariement multimédia compare la description multimédia des services et de la requête.
L’approche a été prototypée et évaluée dans deux domaines différents : médical et tourisme. Les résultats indiquent que l’utilisation de l’appariement métier et l’appariement multimédia a considérablement amélioré les performances des systèmes de recherche de données multimédias.Une approche orientée service pour la recherche sémantique de contenus multimédias [texte imprimé] / MIDOUNI, Sid Ahmed Djallal, Auteur ; AMGHAR, YOCEF, Auteur . - Université tlemcen, 2017 . - 159 p. : ill. ; 30 cm + cd.
Langues : Français (fre) Langues originales : Français (fre)
Résumé : Les sources de données multimédias provenant de divers domaines (médical, tourisme, commerce, art et culture, etc.) sont devenues incontournables sur le web. L’accès à ces sources multimédias dans les systèmes distribués pose de nouveaux problèmes en raison de nombreux paramètres : volumétrie, diversité des interfaces, format de représentation, localisation, etc. En outre, l’exigence de plus en plus forte des utilisateurs et des applications à vouloir intégrer la sémantique dans la recherche d’information pose de nouvelles questions à résoudre. Pour prendre en compte cette nouvelle complexité, nous nous intéressons dans notre travail de recherche aux solutions d’intégration de données basées sur les services web.
Dans cette thèse, nous proposons une approche orientée service pour la recherche sémantique de contenus multimédia. Nous avons appelé cette approche SeSaM (Semantic Search of Multimedia content). SeSaM repose sur la définition d’un nouveau type de services accédant aux contenus multimédias, qui est les services MaaS (Multimedia as a Services). Elle est basée sur un processus en deux phases : description et découverte des services MaaS. En ce qui concerne la description de services MaaS, nous avons défini le langage SA4MaaS (Semantic Annotation for MaaS services), qui est une extension de SAWSDL (recommandation W3C). L’idée principale de ce langage est l’intégration, en plus de la sémantique métier, de la sémantique de l’information multimédia dans la description des services MaaS.
En ce qui concerne la découverte de services MaaS, nous avons proposé un nouveau matchmaker MaaS-MX (MaaS services Matchmaker) adapté au modèle de description des MaaS. MaaS-MX est composé de deux étapes primordiales : appariement métier et appariement multimédia. L’appariement métier consiste à comparer la description métier des services et de la requête, tandis que l’appariement multimédia compare la description multimédia des services et de la requête.
L’approche a été prototypée et évaluée dans deux domaines différents : médical et tourisme. Les résultats indiquent que l’utilisation de l’appariement métier et l’appariement multimédia a considérablement amélioré les performances des systèmes de recherche de données multimédias.Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité T07844 EDOC004-20/ 01 Thèse قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Exclu du prêt Les architectures client-serveur Internet et intranet / Pierre-Yves Cloux
Titre : Les architectures client-serveur Internet et intranet : de CGI aux EJB Type de document : texte imprimé Auteurs : Pierre-Yves Cloux, Auteur ; AURELIEN GERON, Auteur Mention d'édition : 2e éd. Editeur : PARIS : DUNOD Année de publication : 2002 Collection : INFORMATIQUES Importance : 256 p. Format : 25 x 18 cm ISBN/ISSN/EAN : 2-10-006578-5 Prix : 29.5 EUR Langues : Français (fre) Mots-clés : serveurs web Index. décimale : 004 Résumé : Guide destiné à ceux qui doivent concevoir une solution professionnelle d'architecture client-serveur Internet-intranet : description détaillée du client-serveur HTML/Web et du client-serveur distribué autour des technologies de composants logiciels transposables (applets Java et ActiveX) et des solutions de distribution d'objets (CORBA, DCOM, RMI). Les architectures client-serveur Internet et intranet : de CGI aux EJB [texte imprimé] / Pierre-Yves Cloux, Auteur ; AURELIEN GERON, Auteur . - 2e éd. . - , 2002 . - 256 p. ; 25 x 18 cm. - (INFORMATIQUES) .
ISSN : 2-10-006578-5 : 29.5 EUR
Langues : Français (fre)
Mots-clés : serveurs web Index. décimale : 004 Résumé : Guide destiné à ceux qui doivent concevoir une solution professionnelle d'architecture client-serveur Internet-intranet : description détaillée du client-serveur HTML/Web et du client-serveur distribué autour des technologies de composants logiciels transposables (applets Java et ActiveX) et des solutions de distribution d'objets (CORBA, DCOM, RMI). Réservation
Réserver ce document
Exemplaires (2)
Code-barres Cote Support Localisation Section Disponibilité E05346 E000-004.65-05/ 01 Livre قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Disponible 000-004.8--1XC 000-004.8--1XC Livre مخزن الكتب 004 معالجة البيانات علم الحاسوب Disponible AUTOCAD 2000 / GEORGE OMURA
Titre : AUTOCAD 2000 Type de document : texte imprimé Auteurs : GEORGE OMURA, Auteur ; DANIEL ROUGE, Auteur Editeur : MALAKOFF : SYBEX Année de publication : 1999 Collection : LE PLATINIUM Importance : 1104 p. Présentation : COUV,ILL.ILL. Format : 24 cm. ISBN/ISSN/EAN : 2-7361-3402-8 Note générale : INDEX. Langues : Français (fre) Mots-clés : COMMANDE AUTOMATIQUE. ROBOTIQUE Index. décimale : 005 Résumé : LES POINTS CLES: LA MAITRISE DU LOGICIEL DE CAO, L'ANNOTATION, LA COTATION, GERER DE GRANDS DESSINS, IMPRIMER ET TRACER, LE DESSIN EN 3D, LA MODELISATION... PERFECTIONNEMENT. AUTOCAD 2000 [texte imprimé] / GEORGE OMURA, Auteur ; DANIEL ROUGE, Auteur . - , 1999 . - 1104 p. : COUV,ILL.ILL. ; 24 cm.. - (LE PLATINIUM) .
ISBN : 2-7361-3402-8
INDEX.
Langues : Français (fre)
Mots-clés : COMMANDE AUTOMATIQUE. ROBOTIQUE Index. décimale : 005 Résumé : LES POINTS CLES: LA MAITRISE DU LOGICIEL DE CAO, L'ANNOTATION, LA COTATION, GERER DE GRANDS DESSINS, IMPRIMER ET TRACER, LE DESSIN EN 3D, LA MODELISATION... PERFECTIONNEMENT. Réservation
Réserver ce document
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité E04651 E000-005-06/ 01 Livre قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Disponible BASES DE DONNEES ET STATISTIQUE / ANNIE MORIN
Titre : BASES DE DONNEES ET STATISTIQUE Type de document : texte imprimé Auteurs : ANNIE MORIN, Auteur ; PATRICK BOSCQ, Auteur Editeur : PARIS : DUNOD Année de publication : 2002 Collection : SCIENCES SUP Importance : 384 p Format : 24 cm. ISBN/ISSN/EAN : 978-2-10-005350-6 Langues : Français (fre) Mots-clés : MATHEMATIQUES . STATISTIQUE . INFORMATIQUE Index. décimale : 004 Résumé : LE DATA MINING ET L'EXTRACTION DES CONNAISSANCES DANS LES GRANDES BASES DE DONNEES SONT AUJOURD'HUI DES ACTIVITES EN PLEIN DEVELOPPEMENT . L'ANALYSE STATISTIQUE APPARAIT EN PARTICULIER DANS L'EXPOSE DE CERTAIN S BASES DE DONNEES ET STATISTIQUE [texte imprimé] / ANNIE MORIN, Auteur ; PATRICK BOSCQ, Auteur . - , 2002 . - 384 p ; 24 cm.. - (SCIENCES SUP) .
ISBN : 978-2-10-005350-6
Langues : Français (fre)
Mots-clés : MATHEMATIQUES . STATISTIQUE . INFORMATIQUE Index. décimale : 004 Résumé : LE DATA MINING ET L'EXTRACTION DES CONNAISSANCES DANS LES GRANDES BASES DE DONNEES SONT AUJOURD'HUI DES ACTIVITES EN PLEIN DEVELOPPEMENT . L'ANALYSE STATISTIQUE APPARAIT EN PARTICULIER DANS L'EXPOSE DE CERTAIN S Réservation
Réserver ce document
Exemplaires (2)
Code-barres Cote Support Localisation Section Disponibilité E06507 E000-004-20/01 Livre قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Disponible 000-004-20/01-1 000-004-20/01-1 Livre مخزن الكتب 004 معالجة البيانات علم الحاسوب Disponible Combinaison adaptative des informations texture et couleur pour la segmentation d’images médicales / BENOMAR, Mohammed Lamine
Titre : Combinaison adaptative des informations texture et couleur pour la segmentation d’images médicales Type de document : texte imprimé Auteurs : BENOMAR, Mohammed Lamine, Auteur ; chikh, Abdelkrim, Auteur Editeur : Université tlemcen Année de publication : 2018 Importance : 146 p. Présentation : ill. Format : 30 cm Langues : Français (fre) Langues originales : Français (fre) Résumé : En hématologie, le concept de cytologie numérique permet aux pathologistes d’établir des diagnostics précis notamment en
cancérologie (le myélome, les leucémies…), cette spécialité est basée sur l’aspect morphologique des cellules globules blancs
(leucocyte) et l’extraction d’un ensemble de mesures quantitatives par une lecture et une analyse visuelle des images
microscopiques médullaires et du sang périphérique afin de détecter les cellules anormales. La différentiation leucocytaire est une
tâche délicate qui demande énormément de concentration et d’expérience. Pour cela, un système automatique est indispensable,
non seulement pour assister le praticien et diminuer le risque d’erreur mais également afin de facilité la lecture et réduire le temps.
L’approche proposée pour automatiser ce processus est divisée en trois principales étapes : le prétraitement, la segmentation et la
classification. Les méthodes employées sont basées essentiellement sur la couleur, la texture et les propriétés morphologiques des
cellules. Ainsi, une nouvelle transformation couleur pour mettre en évidence les régions d’intérêts est d’abord présentée, suivi par
une segmentation de ces régions par l’algorithme de la ligne de partage des eaux contrainte par marqueurs (Marker Controlled
Watershed) et le classifieur à apprentissage supervisé des forêts aléatoires (Random Forests) pour différencier les globules blancs
des globules rouges groupés et des artéfacts. Le noyau et le cytoplasme sont ensuite séparés. Dans l’étape de classification des
cellules, un ensemble d’attributs de couleur, de texture et de forme est extrait des régions du noyau, du cytoplasme et de la cellule
entière dans le but d’identifier six types de globules blancs (neutrophile, basophile, éosinophile, monocyte, lymphocyte et
plasmocyte), et au finale les performances du classifieur des forêt aléatoires sont comparées et évaluées sur un ensemble d’image
microscopiques. Les résultats obtenus révèlent des précisions de reconnaissance élevées à la fois pour la segmentation et pour la
classification atteignant les 95%.Combinaison adaptative des informations texture et couleur pour la segmentation d’images médicales [texte imprimé] / BENOMAR, Mohammed Lamine, Auteur ; chikh, Abdelkrim, Auteur . - Université tlemcen, 2018 . - 146 p. : ill. ; 30 cm.
Langues : Français (fre) Langues originales : Français (fre)
Résumé : En hématologie, le concept de cytologie numérique permet aux pathologistes d’établir des diagnostics précis notamment en
cancérologie (le myélome, les leucémies…), cette spécialité est basée sur l’aspect morphologique des cellules globules blancs
(leucocyte) et l’extraction d’un ensemble de mesures quantitatives par une lecture et une analyse visuelle des images
microscopiques médullaires et du sang périphérique afin de détecter les cellules anormales. La différentiation leucocytaire est une
tâche délicate qui demande énormément de concentration et d’expérience. Pour cela, un système automatique est indispensable,
non seulement pour assister le praticien et diminuer le risque d’erreur mais également afin de facilité la lecture et réduire le temps.
L’approche proposée pour automatiser ce processus est divisée en trois principales étapes : le prétraitement, la segmentation et la
classification. Les méthodes employées sont basées essentiellement sur la couleur, la texture et les propriétés morphologiques des
cellules. Ainsi, une nouvelle transformation couleur pour mettre en évidence les régions d’intérêts est d’abord présentée, suivi par
une segmentation de ces régions par l’algorithme de la ligne de partage des eaux contrainte par marqueurs (Marker Controlled
Watershed) et le classifieur à apprentissage supervisé des forêts aléatoires (Random Forests) pour différencier les globules blancs
des globules rouges groupés et des artéfacts. Le noyau et le cytoplasme sont ensuite séparés. Dans l’étape de classification des
cellules, un ensemble d’attributs de couleur, de texture et de forme est extrait des régions du noyau, du cytoplasme et de la cellule
entière dans le but d’identifier six types de globules blancs (neutrophile, basophile, éosinophile, monocyte, lymphocyte et
plasmocyte), et au finale les performances du classifieur des forêt aléatoires sont comparées et évaluées sur un ensemble d’image
microscopiques. Les résultats obtenus révèlent des précisions de reconnaissance élevées à la fois pour la segmentation et pour la
classification atteignant les 95%.Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité T08199 EDOC004-25/ 01 Thèse قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Exclu du prêt Conception d’un classifeur à base des règles floues / BELOUFA, FAYSSAL
Titre : Conception d’un classifeur à base des règles floues Type de document : texte imprimé Auteurs : BELOUFA, FAYSSAL, Auteur ; Chikh, Mohamed Amine, Auteur Editeur : Université tlemcen Année de publication : 2016 Importance : 115 P. Présentation : ill. Format : 30 cm Accompagnement : cd Langues : Français (fre) Langues originales : Français (fre) Résumé : L’interprétabilité représente l'élément le plus important derrière l’implémentation
des classifieurs flous pour des problèmes d'application médicale. L'expert devrait
être en mesure de comprendre le classifieur et d'évaluer ses résultats. Cette thèse
présente deux nouvelles approches pour construire un classifieur flou
interprétable. La première approche introduit une modification au niveau de
l’algorithme de la colonie d’abeilles artificielles (ABC) dans lequel un opérateur de
croisement mixte (BLX-α) de l'algorithme génétique est ajouté afin d'améliorer la
diversité de l’algorithme standard ABC. Dans la deuxième approche, nous avons
intégrés dans l’algorithme d’optimisation par essaime particulaires (OEP) le même
opérateur de mutation utilisé dans l’approche précédente, en vue d'améliorer la
diversité des solutions dans l’algorithme standard OEP. Les expérimentations sont
réalisées sur deux bases de données médicales bien connues, le cancer du sein et le
diabète. Les résultats obtenus avec les approches proposées sont très prometteurs
par rapport aux précédentes recherches dans la littérature, pour les mêmes
problèmesConception d’un classifeur à base des règles floues [texte imprimé] / BELOUFA, FAYSSAL, Auteur ; Chikh, Mohamed Amine, Auteur . - Université tlemcen, 2016 . - 115 P. : ill. ; 30 cm + cd.
Langues : Français (fre) Langues originales : Français (fre)
Résumé : L’interprétabilité représente l'élément le plus important derrière l’implémentation
des classifieurs flous pour des problèmes d'application médicale. L'expert devrait
être en mesure de comprendre le classifieur et d'évaluer ses résultats. Cette thèse
présente deux nouvelles approches pour construire un classifieur flou
interprétable. La première approche introduit une modification au niveau de
l’algorithme de la colonie d’abeilles artificielles (ABC) dans lequel un opérateur de
croisement mixte (BLX-α) de l'algorithme génétique est ajouté afin d'améliorer la
diversité de l’algorithme standard ABC. Dans la deuxième approche, nous avons
intégrés dans l’algorithme d’optimisation par essaime particulaires (OEP) le même
opérateur de mutation utilisé dans l’approche précédente, en vue d'améliorer la
diversité des solutions dans l’algorithme standard OEP. Les expérimentations sont
réalisées sur deux bases de données médicales bien connues, le cancer du sein et le
diabète. Les résultats obtenus avec les approches proposées sont très prometteurs
par rapport aux précédentes recherches dans la littérature, pour les mêmes
problèmesExemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité T07821 EDOC004-18/ 01 Thèse قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Exclu du prêt Conception d’un modèle médical à base de résumés linguistiques / AMGHAR, Djazia EP HAMDAN
Titre : Conception d’un modèle médical à base de résumés linguistiques Type de document : texte imprimé Auteurs : AMGHAR, Djazia EP HAMDAN, Auteur ; Chikh, Mohamed Amine, Auteur Editeur : Université tlemcen Année de publication : 2019 Importance : 124 p. Présentation : ill. Format : 30 cm Accompagnement : cd Langues : Français (fre) Résumé : D’une manière générale, la collecte des données médicales créent une grande base des données numériques. Notre travail de recherche vise à extraire des résumés linguistiques flous à partir d'une grande base de données médicale. De ce faite, nous proposons un modèle de diagnostique médical qui traite le problème de volumes de données médicales par la méthode de résumé linguistique, à base de calcul de cardinalité floue. Ce type de résumé permet de construire une base de connaissances réduite qui contient toutes les informations essentielles, pour une meilleure décision. Cette dernier est aussi utilisé pour construire un système interrogation flexible qui traite des requêtes sémantiques simples et des requêtes complexes en langage naturel à la l’aide d’une nouvelle approche, proposé dans notre thèse de recherche. De ce fait, nous proposons aussi de développer un nouveau type de classifieur supervisé basé sur ces résumés linguistiques des données médicales. Pour réaliser cet objectif, nous utilisons le calcul de la similarité entre les différents ensembles flous de résumés linguistiques. La classe (type de maladie) du patient est identifiée par le calcul de l’intégrale de Sugeno. Dans ce contexte, nous réalisons un nouveau modèle médical qui combine entre la réduction sémantique des données, la recherche sémantique de données et de créer un nouveau classifieur supervisé qui est basé sur les résumés linguistiques. Ainsi, la solution proposée a été validée expérimentalement sur des bases de données médicales réelles. Les résultats obtenus sont comparés à ceux de l’état de l’art où nous montrons l’efficacité de modèle de la déduction proposée. Conception d’un modèle médical à base de résumés linguistiques [texte imprimé] / AMGHAR, Djazia EP HAMDAN, Auteur ; Chikh, Mohamed Amine, Auteur . - Université tlemcen, 2019 . - 124 p. : ill. ; 30 cm + cd.
Langues : Français (fre)
Résumé : D’une manière générale, la collecte des données médicales créent une grande base des données numériques. Notre travail de recherche vise à extraire des résumés linguistiques flous à partir d'une grande base de données médicale. De ce faite, nous proposons un modèle de diagnostique médical qui traite le problème de volumes de données médicales par la méthode de résumé linguistique, à base de calcul de cardinalité floue. Ce type de résumé permet de construire une base de connaissances réduite qui contient toutes les informations essentielles, pour une meilleure décision. Cette dernier est aussi utilisé pour construire un système interrogation flexible qui traite des requêtes sémantiques simples et des requêtes complexes en langage naturel à la l’aide d’une nouvelle approche, proposé dans notre thèse de recherche. De ce fait, nous proposons aussi de développer un nouveau type de classifieur supervisé basé sur ces résumés linguistiques des données médicales. Pour réaliser cet objectif, nous utilisons le calcul de la similarité entre les différents ensembles flous de résumés linguistiques. La classe (type de maladie) du patient est identifiée par le calcul de l’intégrale de Sugeno. Dans ce contexte, nous réalisons un nouveau modèle médical qui combine entre la réduction sémantique des données, la recherche sémantique de données et de créer un nouveau classifieur supervisé qui est basé sur les résumés linguistiques. Ainsi, la solution proposée a été validée expérimentalement sur des bases de données médicales réelles. Les résultats obtenus sont comparés à ceux de l’état de l’art où nous montrons l’efficacité de modèle de la déduction proposée. Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité T08706 EDOC004-33/ 01 Thèse قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Exclu du prêt Construction semi-automatique des ontologi à partir des documents textuels arabes / BENABDALLAH, Ali
Titre : Construction semi-automatique des ontologi à partir des documents textuels arabes Type de document : texte imprimé Auteurs : BENABDALLAH, Ali, Auteur ; ABDERRAHIM, Mohammed El Amine, Auteur Editeur : Université tlemcen Année de publication : 2017 Importance : 100 p. Présentation : ill. Format : 30 cm Accompagnement : cd Langues : Français (fre) Langues originales : Français (fre) Résumé : La tâche de construction d’une ontologie à partir d'un corpus textuel commence par la
phase de conceptualisation, qui consiste à extrait les concepts de l'ontologie. Ces concepts
sont reliés par des relations sémantiques. Dans le cadre de cette thèse, nous présentons une
contribution pour la construction semi-automatique d'une ontologie à partir d'un corpus
textuel arabe, en commençant d'abord par la collecte des documents et le prétraitement du
corpus à travers la normalisation, puis la suppression des mots vides et la lemmatisation;
Ensuite, pour extraire les termes de notre ontologie, une méthode statistique pour extraire des
termes simples et complexes appelée « méthode des segments répétés » est appliquée. Pour
sélectionner les segments avec un poids suffisant, nous appliquons deux filtres : un filtre de
pondération TF-IDF (Term Frequency-Inverse Document Frequency) et un filtre coupant.
Pour relier ces termes par des relations sémantiques, nous appliquons une méthode
d'apprentissage automatique des marqueurs linguistiques à partir du texte. Cette méthode
nécessite un ensemble de paires de relations, qui sont extraites à partir de deux ressources
externes: un dictionnaire arabe de synonymes et d'antonymes et une base de données lexicale
Arabe.
A la fin de cette thèse, nous présentons les résultats de notre expérimentation en utilisant
notre corpus textuel. L'évaluation de notre approche montre des résultats encourageants en
termes de rappel et de précision.Construction semi-automatique des ontologi à partir des documents textuels arabes [texte imprimé] / BENABDALLAH, Ali, Auteur ; ABDERRAHIM, Mohammed El Amine, Auteur . - Université tlemcen, 2017 . - 100 p. : ill. ; 30 cm + cd.
Langues : Français (fre) Langues originales : Français (fre)
Résumé : La tâche de construction d’une ontologie à partir d'un corpus textuel commence par la
phase de conceptualisation, qui consiste à extrait les concepts de l'ontologie. Ces concepts
sont reliés par des relations sémantiques. Dans le cadre de cette thèse, nous présentons une
contribution pour la construction semi-automatique d'une ontologie à partir d'un corpus
textuel arabe, en commençant d'abord par la collecte des documents et le prétraitement du
corpus à travers la normalisation, puis la suppression des mots vides et la lemmatisation;
Ensuite, pour extraire les termes de notre ontologie, une méthode statistique pour extraire des
termes simples et complexes appelée « méthode des segments répétés » est appliquée. Pour
sélectionner les segments avec un poids suffisant, nous appliquons deux filtres : un filtre de
pondération TF-IDF (Term Frequency-Inverse Document Frequency) et un filtre coupant.
Pour relier ces termes par des relations sémantiques, nous appliquons une méthode
d'apprentissage automatique des marqueurs linguistiques à partir du texte. Cette méthode
nécessite un ensemble de paires de relations, qui sont extraites à partir de deux ressources
externes: un dictionnaire arabe de synonymes et d'antonymes et une base de données lexicale
Arabe.
A la fin de cette thèse, nous présentons les résultats de notre expérimentation en utilisant
notre corpus textuel. L'évaluation de notre approche montre des résultats encourageants en
termes de rappel et de précision.Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité T07794 EDOC004-16/ 01 Thèse قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Exclu du prêt Coopération entre classifieurs hétérogènes pour la reconnaissance des données médicales / BOUBLENZA, Amina
Titre : Coopération entre classifieurs hétérogènes pour la reconnaissance des données médicales Type de document : texte imprimé Auteurs : BOUBLENZA, Amina, Auteur ; Chikh, Mohamed Amine, Auteur Editeur : Université tlemcen Année de publication : 2017 Importance : 133 p. Présentation : ill. Format : 30 cm Accompagnement : cd Langues : Français (fre) Langues originales : Français (fre) Résumé : Durant ces dernières années, le recours de la médecine moderne à l’intelligence artificielle ne cesse d’augmenter. L’avènement de cette technique a permis d’aboutir à des outils de plus en plus efficaces qui appuient efficacement le diagnostic médical et la prise de décision. Une des applications les plus émergentes est la détection fiable et automatisée des pathologies. Cela a fait l’objet de recherches algorithmiques très actives dans ce que l’on appelle la classification des données médicales.
Les études théoriques et pratiques ont démontré que la classification ensembliste émet des résultats très prometteurs. Par ailleurs, la construction d’un ensemble de classifieurs performants consiste à sélectionner individuellement les membres de l’ensemble en se basant sur des critères prédéfinis. En outre, le choix des attributs précédant la classification est d’une importance cruciale dans le déroulement du processus.
L’objectif de cette thèse est d’étudier et d’analyser le compromis entre le niveau de précision individuelle de chaque classifieur et la diversité mutuelle entre chaque paire de classifieurs hétérogènes. L’accent est porté également sur la sélection d’attributs et son impact sur la performance du résultat de classification finale. Dans ce contexte, nous proposons une nouvelle implémentation qui a pour objectif la détection de différentes pathologies. La solution proposée est validée expérimentalement sur des bases de données biomédicales réelles. Les résultats sont comparés à l’état de l’art et démontrent l’efficacité de l’implémentation proposée.Coopération entre classifieurs hétérogènes pour la reconnaissance des données médicales [texte imprimé] / BOUBLENZA, Amina, Auteur ; Chikh, Mohamed Amine, Auteur . - Université tlemcen, 2017 . - 133 p. : ill. ; 30 cm + cd.
Langues : Français (fre) Langues originales : Français (fre)
Résumé : Durant ces dernières années, le recours de la médecine moderne à l’intelligence artificielle ne cesse d’augmenter. L’avènement de cette technique a permis d’aboutir à des outils de plus en plus efficaces qui appuient efficacement le diagnostic médical et la prise de décision. Une des applications les plus émergentes est la détection fiable et automatisée des pathologies. Cela a fait l’objet de recherches algorithmiques très actives dans ce que l’on appelle la classification des données médicales.
Les études théoriques et pratiques ont démontré que la classification ensembliste émet des résultats très prometteurs. Par ailleurs, la construction d’un ensemble de classifieurs performants consiste à sélectionner individuellement les membres de l’ensemble en se basant sur des critères prédéfinis. En outre, le choix des attributs précédant la classification est d’une importance cruciale dans le déroulement du processus.
L’objectif de cette thèse est d’étudier et d’analyser le compromis entre le niveau de précision individuelle de chaque classifieur et la diversité mutuelle entre chaque paire de classifieurs hétérogènes. L’accent est porté également sur la sélection d’attributs et son impact sur la performance du résultat de classification finale. Dans ce contexte, nous proposons une nouvelle implémentation qui a pour objectif la détection de différentes pathologies. La solution proposée est validée expérimentalement sur des bases de données biomédicales réelles. Les résultats sont comparés à l’état de l’art et démontrent l’efficacité de l’implémentation proposée.Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité T07891 EDOC004-21/ 01 Thèse قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Exclu du prêt La découverte et la sélection des services web / MERZOUG, Mohammed
Titre : La découverte et la sélection des services web Type de document : texte imprimé Auteurs : MERZOUG, Mohammed, Auteur ; HUCHARD, Marianne, Auteur Editeur : Université tlemcen Année de publication : 2018 Importance : 117 p. Présentation : ill. Format : 30 cm Accompagnement : cd Langues : Français (fre) Résumé : Les applications distribuées convergent rapidement vers l’adoption du paradigme
orienté service (SOA). Les services web constituent le moyen le plus convenable pour
mettre en oeuvre l’architecture SOA. La prolifération rapide des services web disponibles
sur le web ainsi que leur hétérogénéité rend très difficile leur découverte et leur
sélection.
Il est par conséquent nécessaire d’automatiser les mécanismes de découverte et
de sélection des services web appropriés afin de répondre à des besoins fonctionnels
et non fonctionnels de l’utilisateur. Ces deux phases constituent les deux problématiques
étudiées dans cette thèse. Pour résoudre la première problématique, à savoir
la découverte, notre contribution consiste à proposer un algorithme d’agrégation de
mesures de similarité qui se base sur une relation de dominance floue ’FDAA’ (Fuzzy
Dominance Aggregating Algorithm) pour trouver les services pertinents relativement
à une requête donnée. Pour résoudre la problématique de sélection des services web,
nous proposons trois contributions. La première contribution est basée sur la métaheuristique
Harmony Search. La deuxième contribution est basée sur la sélection
clonale qui s’inspire du système immunitaire biologique. Et la troisième contribution
est une hybridation de la sélection clonale et l’algorithme d’optimisation par
essaim particulaire. Les résultats obtenus en expérimentations sont très satisfaisants
et encouragent les futurs travaux dans ce domaine de recherche.La découverte et la sélection des services web [texte imprimé] / MERZOUG, Mohammed, Auteur ; HUCHARD, Marianne, Auteur . - Université tlemcen, 2018 . - 117 p. : ill. ; 30 cm + cd.
Langues : Français (fre)
Résumé : Les applications distribuées convergent rapidement vers l’adoption du paradigme
orienté service (SOA). Les services web constituent le moyen le plus convenable pour
mettre en oeuvre l’architecture SOA. La prolifération rapide des services web disponibles
sur le web ainsi que leur hétérogénéité rend très difficile leur découverte et leur
sélection.
Il est par conséquent nécessaire d’automatiser les mécanismes de découverte et
de sélection des services web appropriés afin de répondre à des besoins fonctionnels
et non fonctionnels de l’utilisateur. Ces deux phases constituent les deux problématiques
étudiées dans cette thèse. Pour résoudre la première problématique, à savoir
la découverte, notre contribution consiste à proposer un algorithme d’agrégation de
mesures de similarité qui se base sur une relation de dominance floue ’FDAA’ (Fuzzy
Dominance Aggregating Algorithm) pour trouver les services pertinents relativement
à une requête donnée. Pour résoudre la problématique de sélection des services web,
nous proposons trois contributions. La première contribution est basée sur la métaheuristique
Harmony Search. La deuxième contribution est basée sur la sélection
clonale qui s’inspire du système immunitaire biologique. Et la troisième contribution
est une hybridation de la sélection clonale et l’algorithme d’optimisation par
essaim particulaire. Les résultats obtenus en expérimentations sont très satisfaisants
et encouragent les futurs travaux dans ce domaine de recherche.Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité T08321 EDOC004-28/ 01 Thèse قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Exclu du prêt Design and Assessment of Routing Protocols For Vehicular Delay Tolerant Networks / Arslane, HAMZA-CHERIF
Titre : Design and Assessment of Routing Protocols For Vehicular Delay Tolerant Networks Type de document : texte imprimé Auteurs : Arslane, HAMZA-CHERIF, Auteur ; LAHFA, Fedoua, Auteur Editeur : Université tlemcen Année de publication : 2018 Importance : 137 p. Présentation : ill. Format : 30 cm Accompagnement : cd Langues : Français (fre) Résumé : À travers cette thèse, notre objectif était de contribuer au domaine de recherche des réseaux
véhiculaires tolérants aux délais (VDTNs), et plus important encore, au sous-domaine des protocoles
de routage VDTN. En effet, nos travaux de recherche ont mis en lumière plusieurs découvertes liées à
ce sujet de recherche d’actualité ; En premier lieu, nous avons rappelé les exigences minimales
requises pour évaluer correctement les performances des protocoles de routage VDTN, en particulier
en ce qui concerne le simulateur réseau et la mobilité des véhicules, ainsi que le réalisme du scénario.
Par la suite, notre étude comparative des principaux protocoles a démontré la pertinence des
protocoles de routage basés sur l’approche géographique par rapport à ceux basés sur une approche
prédictive. Par conséquent, nous avons proposé un nouveau protocole géographique GeoDTC basé sur
la distance, le temps et le Custody transfer, qui a démontré sa capacité à surpasser les protocoles
géographiques connus, tout en réalisant un compromis idéal entre un taux de livraison élevé et un
surcout acceptable. Enfin, nous avons développé à travers cette thèse une architecture commune pour
l’implémentation de ces protocoles de routage, qui a été largement utilisée pour la réalisation de nos
travaux de recherche et rendue publique en ligne, dans l’espoir que cela puisse réduire les écarts de
développement et enrichir la communauté scientifique.Design and Assessment of Routing Protocols For Vehicular Delay Tolerant Networks [texte imprimé] / Arslane, HAMZA-CHERIF, Auteur ; LAHFA, Fedoua, Auteur . - Université tlemcen, 2018 . - 137 p. : ill. ; 30 cm + cd.
Langues : Français (fre)
Résumé : À travers cette thèse, notre objectif était de contribuer au domaine de recherche des réseaux
véhiculaires tolérants aux délais (VDTNs), et plus important encore, au sous-domaine des protocoles
de routage VDTN. En effet, nos travaux de recherche ont mis en lumière plusieurs découvertes liées à
ce sujet de recherche d’actualité ; En premier lieu, nous avons rappelé les exigences minimales
requises pour évaluer correctement les performances des protocoles de routage VDTN, en particulier
en ce qui concerne le simulateur réseau et la mobilité des véhicules, ainsi que le réalisme du scénario.
Par la suite, notre étude comparative des principaux protocoles a démontré la pertinence des
protocoles de routage basés sur l’approche géographique par rapport à ceux basés sur une approche
prédictive. Par conséquent, nous avons proposé un nouveau protocole géographique GeoDTC basé sur
la distance, le temps et le Custody transfer, qui a démontré sa capacité à surpasser les protocoles
géographiques connus, tout en réalisant un compromis idéal entre un taux de livraison élevé et un
surcout acceptable. Enfin, nous avons développé à travers cette thèse une architecture commune pour
l’implémentation de ces protocoles de routage, qui a été largement utilisée pour la réalisation de nos
travaux de recherche et rendue publique en ligne, dans l’espoir que cela puisse réduire les écarts de
développement et enrichir la communauté scientifique.Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité T09150 EDOC004-40/ 01 Thèse قاعة العلوم والتكنولوجيا والطب والعلوم الطبيعة والحياة 004 معالجة البيانات علم الحاسوب Exclu du prêt