Entropy thông tin mô tả mức độ hỗn loạn trong một tín hiệu lấy từ một sự kiện ngẫu nhiên. Nói cách khác, entropy cũng chỉ ra có bao nhiêu thông tin trong tín hiệu, với thông tin là các phần không hỗn loạn ngẫu nhiên của tín hiệu.
Ví dụ, nhìn vào một dòng chữ tiếng Việt, được mã hóa bởi các chữ cái, khoảng cách, và dấu câu, tổng quát là các ký tự. Dòng chữ có ý nghĩa sẽ không hiện ra một cách hoàn toàn hỗn loạn ngẫu nhiên; ví dụ như tần số xuất hiện của chữ cái x sẽ không giống với tần số xuất hiện của chữ cái phổ biến hơn là t.
Đồng thời, nếu dòng chữ vẫn đang được viết hay đang được truyền tải,
khó có thể đoán trước được ký tự tiếp theo sẽ là gì, do đó nó có mức độ
ngẫu nhiên nhất định. Entropy thông tin là một thang đo mức độ ngẫu
nhiên này.
Nguồn http://vi.wikipedia.org/wiki/
Có...