Veuillez utiliser cette adresse pour citer ce document :
https://hdl.handle.net/20.500.12177/4391
Affichage complet
Élément Dublin Core | Valeur | Langue |
---|---|---|
dc.contributor.advisor | Njanpong Nana, Gilbert | - |
dc.contributor.author | Mbatchou, Alain Cédrick | - |
dc.date.accessioned | 2021-09-03T06:49:24Z | - |
dc.date.available | 2021-09-03T06:49:24Z | - |
dc.date.issued | 2016 | - |
dc.identifier.uri | https://hdl.handle.net/20.500.12177/4391 | - |
dc.description.abstract | Le modèle de processus de décision markovien probabiliste (PDMP) est le modèle standard pour la résolution des problèmes de planification dans l’incertain afin de trouver une politique optimale. L’objet principal de ce mémoire est de déterminer les conditions d’existence d’une politique optimale dans un PDMP à horizon fini dans le cadre des préférences complètes.Nous étudions l’équation de Bellman pour le critère fini et énonçons les propriétés suffisantes(hypothèse de complétude, transitivité, invariance par translation, indépendance) des relations de préférences sur les loteries pour permettre l’utilisation des méthodes fondées sur la programmation dynamique. Nous fournissons enfin un exemple d’application de l’approche par la fonction de valeur pour le critère fini. | fr_FR |
dc.format.extent | 65 Pages | fr_FR |
dc.publisher | Université de Yaoundé 1 | fr_FR |
dc.subject | PDMP | fr_FR |
dc.subject | Politique optimale | fr_FR |
dc.subject | fonction de valeur | fr_FR |
dc.subject | loterie | fr_FR |
dc.subject | Programmation dynamique | fr_FR |
dc.title | Conditions d'existence des politiques optimales dans un pmdp à horizon fini : cas des préférences complètes | fr_FR |
dc.type | Thesis | - |
Collection(s) : | Mémoires soutenus |
Fichier(s) constituant ce document :
Fichier | Description | Taille | Format | |
---|---|---|---|---|
ENS_2016_mem_0376.pdf | 1.84 MB | Adobe PDF | Voir/Ouvrir |
Tous les documents du DICAMES sont protégés par copyright, avec tous droits réservés.