Định nghĩa của "entropy" là gì?

Entropy là thước đo sự rối loạn phổ biến trong một hệ động lực. Entropy được định nghĩa theo định luật thứ hai của nhiệt động lực học là lượng nhiệt năng truyền vào và ra khỏi một hệ thống. Nó là thước đo tính ngẫu nhiên hoặc hỗn loạn phổ biến trong một hệ thống.

Nhà vật lý người Đức Rudolf Clausius sử dụng thuật ngữ entropy lần đầu tiên vào năm 1850. Entropy và định luật bảo toàn năng lượng có mối liên hệ với nhau và giải thích tại sao vũ trụ thích trật tự hơn. Entropy thường được ví như mũi tên của thời gian. Giống như thời gian, entropy chỉ chảy theo một hướng.

Theo định luật thứ ba của nhiệt động lực học, tổng lượng entropi trong vũ trụ luôn không đổi hoặc tăng lên.