1. 정보란 사건에 대한 예측임

2. 사건을 정확히 예측할 경우 엔트로피가 0임

3. 사건의 발생확률이 낮을수록 경우의 수가 많아지므로 엔트로피가 커짐

4. 엔트로피가 클수록 엔트로피를 0으로 만들기 위해 감소시켜야 하는 엔트로피 폭이 큼

5. 큰 폭으로 엔트로피를 감소시키는 정보일수록 가치가 높고 정보량이 큼