DICAMES logo

Veuillez utiliser cette adresse pour citer ce document : https://hdl.handle.net/20.500.12177/4391
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.advisorNjanpong Nana, Gilbert-
dc.contributor.authorMbatchou, Alain Cédrick-
dc.date.accessioned2021-09-03T06:49:24Z-
dc.date.available2021-09-03T06:49:24Z-
dc.date.issued2016-
dc.identifier.urihttps://hdl.handle.net/20.500.12177/4391-
dc.description.abstractLe modèle de processus de décision markovien probabiliste (PDMP) est le modèle standard pour la résolution des problèmes de planification dans l’incertain afin de trouver une politique optimale. L’objet principal de ce mémoire est de déterminer les conditions d’existence d’une politique optimale dans un PDMP à horizon fini dans le cadre des préférences complètes.Nous étudions l’équation de Bellman pour le critère fini et énonçons les propriétés suffisantes(hypothèse de complétude, transitivité, invariance par translation, indépendance) des relations de préférences sur les loteries pour permettre l’utilisation des méthodes fondées sur la programmation dynamique. Nous fournissons enfin un exemple d’application de l’approche par la fonction de valeur pour le critère fini.fr_FR
dc.format.extent65 Pagesfr_FR
dc.publisherUniversité de Yaoundé 1fr_FR
dc.subjectPDMPfr_FR
dc.subjectPolitique optimalefr_FR
dc.subjectfonction de valeurfr_FR
dc.subjectloteriefr_FR
dc.subjectProgrammation dynamiquefr_FR
dc.titleConditions d'existence des politiques optimales dans un pmdp à horizon fini : cas des préférences complètesfr_FR
dc.typeThesis-
Collection(s) :Mémoires soutenus

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
ENS_2016_mem_0376.pdf1.84 MBAdobe PDFMiniature
Voir/Ouvrir


Tous les documents du DICAMES sont protégés par copyright, avec tous droits réservés.