Cómo medir las cosas

Por • 21 jul, 2021 • Sección: Opinion

Joel R. Peck , David Waxman

En la teoría de la información clásica, una relación causal entre dos variables aleatorias se modela típicamente asumiendo que, para cada estado posible de una de las variables, existe una distribución particular de estados de la segunda variable. Llamemos a estas dos variables variables causales y causadas, respectivamente. Suponemos que ambas variables aleatorias son continuas y unidimensionales. La realización de transformaciones independientes sobre la variable causal y causada crea dos nuevas variables aleatorias. Aquí, consideramos transformaciones diferenciables y estrictamente crecientes. Llamamos a estas transformaciones crecientes. Si, por ejemplo, la masa de un objeto es una variable causada, se podría aplicar una transformación logarítmica para producir una nueva variable causada. Cualquier relación causal (como se define aquí) está asociada con la capacidad de un canal, que es la velocidad máxima a la que se podría enviar información si la relación causal se usara como un sistema de señalización. La capacidad del canal no se ve afectada cuando las variables se cambian mediante el uso de transformaciones crecientes. Para cualquier relación causal, mostramos que siempre hay una manera de transformar la variable causada de manera que la entropía asociada con la variable causada sea independiente del valor de la variable causal. Además, la entropía universal resultante tiene un valor absoluto que es igual a la capacidad del canal asociada con la relación causal. Esta observación puede ser útil en aplicaciones estadísticas e implica que, para cualquier relación causal, existe una forma «natural» de transformar una variable causada continua.

 arXiv: 2107.03789v1 [cs.IT]

Teoría de la información (cs.IT)

Post to Twitter

Escribe un comentario