Comment appelle-t-on une mesure du désordre ou du hasard ?

La mesure du désordre ou du caractère aléatoire dans un système est appelée entropie. L'entropie est un concept fondamental en thermodynamique, en théorie de l'information, en mécanique statistique et dans bien d'autres domaines. En termes simples, l’entropie quantifie le degré de caractère aléatoire ou d’imprévisibilité d’un système. Plus l’entropie est élevée, plus le système est désordonné ou imprévisible. À l’inverse, un système à faible entropie est plus ordonné et prévisible.