1

Bon, je vais pas y aller par quatre chemins, dans ma L2 d'Informatique, il y a une UE qui porte le joli nom de "Probabilités et Statistiques". Si au début, je comprenais un peu car c'était un rappel de certaines notions élémentaires du lycée, maintenant je suis paumé >_<

Si quelqu'un pouvait m'expliquer dans un français compréhensible, l'intéret des Chaines de Markov, quand et pourquoi c'est utilisé, ça m'aiderait beaucoup (et le wikipedia m'a plus embrouillé qu'autre chose). Merci d'avance sad

2

Grosso modo une chaîne de Markov est à une distribution de probabilité quelconque ce qu'un automate est à un programme quelconque : une simplification qui fait qu'au lieu d'avoir une mémoire infinie, le programme ou la distribution de probabilité n'aura qu'une mémoire finie, puisqu'il ne pourra que se souvenir de l'état du système à l'instant précédent... (et il n'y a qu'un nombre fini d'états)

Par exemple je peux générer un texte aléatoire en écrivant des phrases en français, puis au bout d'un certain temps aléatoire j'écris des phrases en anglais, et ainsi de suite ; dans ce cas-là c'est clair que la probabilité que j'ai "hello" à un endroit donné dans le texte dépend des mots précédents : si le mot précédent est en français, c'est peu probable que j'ai "hello" juste après, alors que si le mot précédent est en anglais c'est nettement plus probable smile Donc pour modéliser ce genre de distribution, comment faire ? Je ne peux pas dire bêtement "la probabilité de hello, c'est 0.1" parce que ça ne donnera pas la même distribution, donc il faut que je passe à une modélisation un peu plus fine. En l'occurrence, on va représenter la distribution par une chaîne de Markov à deux états : un état pour dire qu'on est en train de parler français, et que donc la suite sera probablement en français, et un état pour dire qu'on est en train de parler anglais, et que donc la suite sera probablement en anglais. Du coup, quand on est dans l'état français, "hello" a une probabilité de 0.01, et si on tombe dessus on va passer en anglais, et quand on est dans l'état anglais, "hello" a une probabilité de 0.2, et si on tombe dessus on reste en anglais ^^

« The biggest civil liberty of all is not to be killed by a terrorist. » (Geoff Hoon, ministre des transports anglais)

3

C'est utilisé pour décrire des processus qui s'étendent dans le temps. [avec certaines conditions : qu'il n'y ait pas besoin de connaitre le passé pour déduire le futur à partir du présent]

wikipedia donne l'exemple kipoutre de Doudou le hamster, mais si il ne te plait pas, on peut aussi parler du temps qu'il fait :

Si les variables aléatoires X1, X2, ... X365 décrivent le temps qu'il fait chaque jour de l'année, on pourrait grosso modo dire que le temps au jour i+1 est fonction du temps au jour i, avec une part de hasard : ça définit une chaîne de Markov.


Par exemple, on suppose que :

* s'il pleut au jour i, alors
- il y a 40% de chances qu'il pleuve au jour i+1
- il y a 60% de chances qu'il ne pleuve pas au jour i+1

* s'il ne pleut pas au jour i, alors
- il y a 10% de chances qu'il pleuve au jour i+1
- il y a 90% de chances qu'il ne pleuve pas au jour i+1

On définit X(i) = la probabilité qu'il pleuve au jour i.

On suppose qu'il pleut au premier janvier : X(1) = 1

On a la relation X(i+1) = 0,4*X(i) + 0,1*(1-X(i)) = 0,1 - 0,3*X(i)

On a donc modélisé (de façon pipo évidemment) l'évolution du temps tout au long de l'année.
En passant à la limite, on peut calculer la proba qu'il pleuve n'importe quel jour de l'année (cette proba vaut 1/13 si on fait le calcul)
Les droits inaliénables du troll :
1) le droit d'avoir raison
2) le droit d'être péremptoire
3) le droit de ne pas lire
4) le droit de ne pas répondre
5) le droit d'être de mauvaise foi
6) Autant pour moi / Faignant / Vivent Tintin et Milou

4

Pollux :
Grosso modo une chaîne de Markov est à une distribution de probabilité quelconque ce qu'un automate est à un programme quelconque : une simplification qui fait qu'au lieu d'avoir une mémoire infinie, le programme ou la distribution de probabilité n'aura qu'une mémoire finie, puisqu'il ne pourra que se souvenir de l'état du système à l'instant précédent... (et il n'y a qu'un nombre fini d'états)


OK, là je comprends *beaucoup* mieux ^^ Parce qu'essayer de comprendre un prof d'amphi qui parle mi-russe, mi-anglais, mi-français qui se perd très souvent dans des badtrips incompréhensibles, pas glop quoi (D'ailleurs 80 % des étudiants ont déserté son cours)

Merci Pollux et Hippo pour l'exemple du temps qu'il fait (Surtout que plus l'exemple est débile, mieux je peux comprendre trioui) et pour l'indication de l'exemple de Doudou le hamster (J'aurais du regarder l'article plus en détail... Ca va me faire de bonnes bases tiens love)