Search engine for discovering works of Art, research articles, and books related to Art and Culture
ShareThis
Javascript must be enabled to continue!

Large-time asymptotics of anomalous fluctuations in heavy-tailed renewal-reward processes

View through CrossRef
Asymptotiques à temps long de fluctuations anormales pour des processus de renouvellement-récompense à queue lourde Dans cette thèse, nous étudions principalement le comportement en temps fini des fluctuations anormales dans les processus de renouvellement-récompense à queue lourde. Une distribution à queue lourde produit plus d'événements rares qu'une distribution exponentielle dans un système. En général, la queue des distributions de probabilité est liée à un événement rare et a un faible impact sur l'ensemble du système. Cependant, lorsque les distributions de probabilité sont à queue lourde, cette idée ne fonctionne pas. Par exemple, sur le marché financier, l'effondrement ou le choc du marché est un événement rare à la suite d'une distribution à queue lourde. Dans la propagation des maladies infectieuses, un super-épandeur est un événement rare dans le système, dont l'occurrence est également distribuée par une distribution à queue lourde. De plus, le comportement du processus stochastique contient des fluctuations anormales à cause des effets de mémoire. Dans cette thèse, nous étudions le comportement anormal des processus de récompense de renouvellement à queue lourde en utilisant le principe de grande déviation (LDP), le principe variationnel et une équation de renouvellement. Dans cette thèse, nous présentons d'abord le contexte de nos recherches au chapitre 2. Dans le chapitre 3, nous donnons la preuve de l'asymptotique en temps long d'une fonction génératrice de moment (ou fonction génératrice de cumulant) dans un processus de renouvellement-récompense à queue lourde. Cette fonction génératrice de moment a sa singularité dans la plage spécifique du champ de polarisation. Nous avons clarifié le comportement de la partie singularité dans une plage de temps finie. De plus, nous avons analysé la fonction de taux de temps fini en utilisant la simulation numérique. La survenue de nombreux événements rares affecte la loi de convergence de LDF et la fonction génératrice de moment se comporte comme une loi de puissance dans la partie affine. Dans le chapitre 4, nous redérivons une partie affine dans les fonctions génératrices cumulantes (CGF) en utilisant un principe variationnel développé en théorie des grandes déviations. Ce principe variationnel a été appliqué pour étudier une singularité apparaissant dans le LDF dans, entre autres, des modèles à contraintes cinétiques (KCM) et des matières actives. Ces modèles sont définis à l'aide de processus de Markov, à cause desquels le LDF des quantités moyennées dans le temps n'a pas de singularité chaque fois que la taille du système (non le temps de moyenne) est finie. Nous nous concentrons sur la façon dont la même méthodologie peut être étendue à notre problème non-markovien pour dériver la partie affine. Dans le chapitre 5, nous avons d'abord étudié un processus de comptage avec deux distributions de temps d'attente à queue lourde : la distribution de Pareto (l'exposant de la loi de puissance est -3) avec et la distribution de Rayleigh inverse. Ces deux distributions de temps d'attente ont une forme asymptotique dont l'exposant de la loi de puissance est -3 lorsque le temps d'attente est grand, ce qui implique que la variance du temps d'attente diverge. En raison de cette divergence, nous avons discuté du fait que la variance mise à l'échelle du processus de comptage diverge également dans la grande limite de temps. Nous avons en effet déduit que la variance mise à l'échelle est asymptotiquement proportionnelle à log(t), divergeant lorsque le temps tend vers l'infini. Deuxièmement, comme pour la conclusion d'un processus de comptage, nous avons clarifié le comportement asymptotique de la variance du courant moyenné dans le temps. Ce temps entre les arrivées suit la distribution de Rayleigh inverse, nous pouvons donc obtenir que la variance mise à l'échelle est asymptotiquement proportionnelle à log(t), divergeant lorsque le temps va vers l'infini. L'effet mémoire d'un processus stochastique est lié à la divergence anormale des moments.
Agence Bibliographique de l'Enseignement Supérieur
Title: Large-time asymptotics of anomalous fluctuations in heavy-tailed renewal-reward processes
Description:
Asymptotiques à temps long de fluctuations anormales pour des processus de renouvellement-récompense à queue lourde Dans cette thèse, nous étudions principalement le comportement en temps fini des fluctuations anormales dans les processus de renouvellement-récompense à queue lourde.
Une distribution à queue lourde produit plus d'événements rares qu'une distribution exponentielle dans un système.
En général, la queue des distributions de probabilité est liée à un événement rare et a un faible impact sur l'ensemble du système.
Cependant, lorsque les distributions de probabilité sont à queue lourde, cette idée ne fonctionne pas.
Par exemple, sur le marché financier, l'effondrement ou le choc du marché est un événement rare à la suite d'une distribution à queue lourde.
Dans la propagation des maladies infectieuses, un super-épandeur est un événement rare dans le système, dont l'occurrence est également distribuée par une distribution à queue lourde.
De plus, le comportement du processus stochastique contient des fluctuations anormales à cause des effets de mémoire.
Dans cette thèse, nous étudions le comportement anormal des processus de récompense de renouvellement à queue lourde en utilisant le principe de grande déviation (LDP), le principe variationnel et une équation de renouvellement.
Dans cette thèse, nous présentons d'abord le contexte de nos recherches au chapitre 2.
Dans le chapitre 3, nous donnons la preuve de l'asymptotique en temps long d'une fonction génératrice de moment (ou fonction génératrice de cumulant) dans un processus de renouvellement-récompense à queue lourde.
Cette fonction génératrice de moment a sa singularité dans la plage spécifique du champ de polarisation.
Nous avons clarifié le comportement de la partie singularité dans une plage de temps finie.
De plus, nous avons analysé la fonction de taux de temps fini en utilisant la simulation numérique.
La survenue de nombreux événements rares affecte la loi de convergence de LDF et la fonction génératrice de moment se comporte comme une loi de puissance dans la partie affine.
Dans le chapitre 4, nous redérivons une partie affine dans les fonctions génératrices cumulantes (CGF) en utilisant un principe variationnel développé en théorie des grandes déviations.
Ce principe variationnel a été appliqué pour étudier une singularité apparaissant dans le LDF dans, entre autres, des modèles à contraintes cinétiques (KCM) et des matières actives.
Ces modèles sont définis à l'aide de processus de Markov, à cause desquels le LDF des quantités moyennées dans le temps n'a pas de singularité chaque fois que la taille du système (non le temps de moyenne) est finie.
Nous nous concentrons sur la façon dont la même méthodologie peut être étendue à notre problème non-markovien pour dériver la partie affine.
Dans le chapitre 5, nous avons d'abord étudié un processus de comptage avec deux distributions de temps d'attente à queue lourde : la distribution de Pareto (l'exposant de la loi de puissance est -3) avec et la distribution de Rayleigh inverse.
Ces deux distributions de temps d'attente ont une forme asymptotique dont l'exposant de la loi de puissance est -3 lorsque le temps d'attente est grand, ce qui implique que la variance du temps d'attente diverge.
En raison de cette divergence, nous avons discuté du fait que la variance mise à l'échelle du processus de comptage diverge également dans la grande limite de temps.
Nous avons en effet déduit que la variance mise à l'échelle est asymptotiquement proportionnelle à log(t), divergeant lorsque le temps tend vers l'infini.
Deuxièmement, comme pour la conclusion d'un processus de comptage, nous avons clarifié le comportement asymptotique de la variance du courant moyenné dans le temps.
Ce temps entre les arrivées suit la distribution de Rayleigh inverse, nous pouvons donc obtenir que la variance mise à l'échelle est asymptotiquement proportionnelle à log(t), divergeant lorsque le temps va vers l'infini.
L'effet mémoire d'un processus stochastique est lié à la divergence anormale des moments.

Related Results

An examination of how reward associations differentially facilitate and impair Stroop performance
An examination of how reward associations differentially facilitate and impair Stroop performance
Behavioral performance is improved when the color of a Stroop stimulus is tied to a potential reward but is impaired when the irrelevant word meaning is reward related. The facilit...
Reward does not facilitate visual perceptual learning until sleep occurs
Reward does not facilitate visual perceptual learning until sleep occurs
ABSTRACTA growing body of evidence indicates that visual perceptual learning (VPL) is enhanced by reward provided during training. Another line of studies has shown that sleep foll...
An examination of how reward associations facilitate and impair Stroop performance
An examination of how reward associations facilitate and impair Stroop performance
Rewarded stimuli are prioritized by the attentional system. Behavioral performance is improved when the task-relevant dimension is tied to a potential reward but is impaired when t...
A Review on the Synergistic Approaches for Heavy Metals Bioremediation: Harnessing the Power of Plant-Microbe Interactions
A Review on the Synergistic Approaches for Heavy Metals Bioremediation: Harnessing the Power of Plant-Microbe Interactions
Heavy metals contamination is a serious threat to all life forms. Long term exposure of heavy metals can lead to different life-threatening medical conditions including cancers of ...
Ecological Relationships between Mule Deer and White‐Tailed Deer in Southeastern Arizona
Ecological Relationships between Mule Deer and White‐Tailed Deer in Southeastern Arizona
Niche relationships between the desert mule deer (Odocoileus hemionus crooki) and Coues white—tailed deer (Odocoileus virginianus couesi) were studied in the San Cayetano and Dos C...
Differential and temporally dynamic involvement of primate amygdala nuclei in face animacy and reward information processing
Differential and temporally dynamic involvement of primate amygdala nuclei in face animacy and reward information processing
Abstract Decision-making is influenced by both expected reward and social factors, such as who offered the outcomes. Thus, although a reward might originally be ind...
Examining the effects of reward and punishment on incidental learning
Examining the effects of reward and punishment on incidental learning
<p>Reward has been shown to improve multiple forms of learning. However, many of these studies do not distinguish whether reward directly benefits learning or if learning is ...
Multivariate Neural Patterns of Reward and Anxiety in Adolescents with Anorexia Nervosa
Multivariate Neural Patterns of Reward and Anxiety in Adolescents with Anorexia Nervosa
People with anorexia nervosa (AN) commonly exhibit elevated anxiety and atypical reward responsiveness. To examine multivariate neural patterns associated with reward and the impac...

Back to Top