Un interessante articolo di Gianni Zanarini sui rapporti tra informazione ed entropia. L’articolo è molto tecnico (riporta la definizione “classica” di informazione, ovvero quella legata al repertorio di probabilità alla fonte, formalizzata matematicamente), ma secondo me vale la pena di uno sforzino, soprattutto per i risvolti epistemologici della seconda parte.