최근 수정 시각 : 2024-12-15 19:33:02

정보 엔트로피


[[컴퓨터공학|컴퓨터 과학 & 공학
Computer Science & Engineering
]]
[ 펼치기 · 접기 ]
||<tablebgcolor=#fff,#1c1d1f><tablecolor=#373a3c,#ddd><colbgcolor=#0066DC><colcolor=white> 기반 학문 || 수학( 해석학 · 이산수학 · 수리논리학 · 선형대수학 · 미적분학 · 미분방정식 · 대수학( 환론 · 범주론) · 정수론) · 이론 컴퓨터 과학 · 암호학 · 전자공학 · 언어학( 형태론 · 통사론 · 의미론 · 화용론 · 음운론) · 인지과학 ||
하드웨어 구성 SoC · CPU · GPU( 그래픽 카드 · GPGPU) · ROM · RAM · SSD · HDD · 참조: 틀:컴퓨터 부품
기술 기계어 · 어셈블리어 · C/ C++ · C# · Java · Python · BIOS · 절차적 프로그래밍 · 객체 지향 프로그래밍 · 해킹 · ROT13 · 일회용 비밀번호 · 사물인터넷 · 와이파이 · GPS · 임베디드 · 인공신경망 · OpenGL · EXIF · 마이크로아키텍처 · ACPI · UEFI · NERF · gRPC · 리버스 엔지니어링 · HCI · UI · UX · 대역폭 · DBMS · NoSQL · 해시( SHA · 브루트 포스 · 레인보우 테이블 · salt · 암호화폐) · RSA 암호화 · 하드웨어 가속
연구

기타
논리 회로( 보수기 · 가산기 · 논리 연산 · 불 대수 · 플립플롭) · 정보이론 · 임베디드 시스템 · 운영 체제 · 데이터베이스 · 프로그래밍 언어{ 컴파일러( 어셈블러 · JIT) · 인터프리터 · 유형 이론 · 파싱 · 링커 · 난해한 프로그래밍 언어} · 메타데이터 · 기계학습 · 빅데이터 · 폰노이만 구조 · 양자컴퓨터 · 행위자 모델 · 인코딩( 유니코드 · MBCS) · 네트워크 · 컴퓨터 보안 · OCR · 슈퍼컴퓨터 · 튜링 머신 · FPGA · 딥러닝 · 컴퓨터 구조론 · 컴퓨터 비전 · 컴퓨터 그래픽스 · 인공지능 · 시간 복잡도( 최적화) · 소프트웨어 개발 방법론 · 디자인 패턴 · 정보처리이론 · 재귀 이론 · 자연어 처리( 기계 번역 · 음성인식) · 버전 ( 버전 관리 시스템 · Git · GitHub)



1. 개요2. 정의
2.1. 정보 측도2.2. 섀넌 엔트로피2.3. 레니 엔트로피2.4. 미분 엔트로피
3. 연관 개념
3.1. 상대 엔트로피3.2. 상호 정보
4. 해석과 응용5. 물리학에서의 적용
5.1. 열역학적 엔트로피와의 관계
6. 여담

1. 개요

정보 엔트로피(information entropy)란 정보이론에서 확률변수의 불확실성(uncertainty)을 정량화하는 척도이다.

확률변수의 불확실성을 정량화하는 방법, 즉 엔트로피를 정의하는 방법은 활용 방법과 그 의의에 따라 다양하지만, 가장 널리 사용되는 엔트로피는 섀넌 엔트로피(Shannon entropy)이다. 섀넌 엔트로피는 한 메시지에 들어갈 수 있는 정보량[1] 비트 수로 해석될 수 있다. 정보 이론의 창시자인 수학자 클로드 섀넌이 1948년 창안하였고, 컴퓨터과학, 암호학, 데이터 압축 등에서 사용되는 개념이다.

2. 정의

2.1. 정보 측도

일단 정보를 정량화하기 위해서는 정보가 무엇인지 직관적인 이해가 필요하다. 다음 예를 통해 그 의미가 무엇인지 생각해보자.
문장 1: 해는 동쪽에서 뜬다.
문장 2: 내일 엔비디아 주식 가격이 오른다.
위 예에서 "문장 1"은 너무 당연한 소리이므로 누군가에게 이 문장을 알려준다해도 그 사람이 실질적으로 알게되는 추가 정보는 없다. 반면 "문장 2"의 경우, 어떠한 주식이 오르고 내릴 확률은 효율적 시장 가설이 맞다면 (퍼블릭하게 알려진 정보 외에는 아는 게 없다고 가정할 때) 거의 50% 이므로 "문장 2"가 참이라면 엄청나게 유용한 정보될 것이다. 즉, 어떤 랜덤 변수가 확정적으로 어떤 값을 가지면 (즉, deterministic 하다면), 그 랜덤 변수가 realize되었을 때 얻게 되는 정보량은 0이고, 변수가 완전 랜덤할수록 그 랜덤 변수가 realize되었을 때 얻게 되는 정보량은 많다고 볼 수 있다.

이러한 직관을 가지고 어떠한 확률 변수 [math(X)]에 대해 각 사건(outcomes)에 대한 정보량은 대충 다음과 같아야 한다:
[math(\displaystyle X = \begin{cases} x_1 &\text{with probability }p_1 \\
x_2 &\text{with probability }p_2 \\
\vdots \\
x_n &\text{with probability }p_n
\end{cases})]
일 때, [math(i)]번째 사건 [math(x_i)]이 일어났을 때 얻게되는 정보량은 확률 [math(p_i)]가 클수록 작아지고 작을수록 커야할 것이다. 이를 테면 [math(1/p_i - 1)]나 [math(\log(1/p_i))]로 정보량을 세팅하면 [math(p_i=1)]일 때 0 (당연한 걸 알려줬을 때 얻는 정보는 0), [math(p_i=0)]일 때 [math(\infty)](전혀 예상치도 못한 것을 알려줬을 때 얻는 정보는 무한대)이 되어서 위 직관과 합치된다.

하지만 여러 수학적인 편의성을 위해 후술할 다양한 종류의 정보 측도들이 개발되었다. 정보 측도로써 가져야할 특징들을 생각해보면 다음과 같다.
정보 측도 (Information Measure)
정보 측도 [math(I)]는 다음을 만족하는 측도이다.
  • 정보량은 무조건 0이상이다. [math(I(X) \ge 0)]
  • 각 사건 [math(\omega_i)]에 대해 해당 사건이 발생할 확률 [math(p_i)]이 증가할 때 [math(I(\omega))]는 감소해야한다. 만약 사건의 갯수 [math(n)]이 정해져있다면 모든 사건에 대해 같은 확률 [math(1/n)]일 때 정보량이 최대이다.
  • 어떤 두 확률 변수 [math(X, Y)]가 있을 때, [math(X)]를 알게 되면 자동적으로 [math(Y)]를 알 수 있다면 [math(X)]의 정보량이 [math(Y)]의 정보량보다 많아야 한다. [math(Y = f(X) \implies I(X) \ge I(Y) )]

이 외에 수학적인 편의성을 위해 다음을 만족하여야 한다.
  • [math(I(X))]는 [math(X)]의 확률 분포 [math(p_1, \ldots, p_n)]에 대해서만 depend하고 연속이다.

    • [math(\displaystyle I(X) = I(p_1, \ldots, p_n))]
  • 어떤 두 확률 변수 [math(X, Y)]가 독립일 때 총 정보량은 다음과 같다.

    • [math(\displaystyle I(X, Y) = I(X) + I(Y) \qquad \text{ if } X \perp\!\!\!\perp Y)]

Information Theory, Inference, and Learning Algorithms by David J.C. MacKay, A Mathematical Theory of Communication By C. E. SHANNON

이러한 조건을 만족시키는 정보 측도들은 다음과 같다.


2.2. 섀넌 엔트로피

위의 정보 측도 정의에서 두 독립 확률 변수 [math(X, Y)]에 대해 [math(\displaystyle I(X, Y) = I(X) + I(Y))] 만족 시키기 좋은 가장 간단한 형태는 [math(\log(1/p_i))]형태임을 짐작할 수 있을 것이다.[2]

실제로 섀넌은 이산 확률 변수 [math(X)]의 엔트로피 [math( H(X))]를 다음과 같이 정의하였다.[3]

H(X)=xXp(x)logp(x) \displaystyle H(X)=-\sum_{x \in \mathcal{X}}{p(x)\log p(x)}


[math(p(x))]는 [math(X)]의 확률 질량 함수이며, [math(\mathcal{X})]는 확률 변수 [math(X)]가 취할 수 있는 값들의 집합(치역, Range)이다.

섀넌 엔트로피 [math(H(X))]는 다음과 같은 성질을 가진다.
  • [math(X)]의 섀넌 엔트로피 [math( H(X))]는 [math(-\log p(X))]의 기댓값이다. 즉, [math( \mathbb{E} [-\log p(X) ] = H(X))]이다.[4]
  • 임의의 [math(X)]에 대해 [math( H(X) \geq 0)]이다.[5]
  • 임의의 [math(X)]에 대해 [math( H(X) \leq \log |\mathcal{X}|)]이다. 즉 [math(\mathcal{X})]에 대해 최대 엔트로피를 갖는 확률 분포는 균등 분포(Uniform distribution)이다.[6]
  • 임의의 확률 분포 [math(p)]에 대해 [math(H(p))]는 오목함수이다.[7]
  • [math(H(X) \geq H(X|Y))]이다.[8] 따라서 어떤 확률 변수의 엔트로피(불확실성)는 다른 확률 변수에 대한 지식으로 인해 증가하지 않는다.
  • 일반적으로 로그의 밑을 2로 사용하며, 이때의 섀넌 엔트로피의 단위는 비트이다. 밑을 [math(e)]로 사용할 때의 단위는 내트([math(\rm nat)])이다.

2.3. 레니 엔트로피

레니 엔트로피(Rényi entropy)는 섀넌 엔트로피, 충돌 엔트로피(collision entropy), 최소 엔트로피(min-entropy) 등 다양한 정보 엔트로피의 척도를 일반화한 것이다.

이산 확률 변수 [math(X)]의 레니 엔트로피 [math( H_{\alpha}(X))]는 다음과 같이 정의된다.

Hα(X)=11αlog2xXp(x)α(α>0,α1) \displaystyle H_{\alpha}(X)=\frac{1}{1 - \alpha}\log_{2} \sum_{x \in \mathcal{X}}{p(x)^{\alpha}} \quad (\alpha >0, \alpha \neq 1)

[math(p(x))]는 [math(X)]의 확률 질량 함수이며, [math(\mathcal{X})]는 확률 변수 [math(X)]의 치역이다.

또한 특수한 경우의 레니 엔트로피를 다음과 같은 극한으로 정의한다.
  • (최대 엔트로피) [math(H_{0}(X) = \displaystyle \lim_{\alpha \to 0}{H_{\alpha}(X)} = \log_{2}{|\mathcal{X}|})]
  • (섀넌 엔트로피) [math(H_{1}(X) = \displaystyle \lim_{\alpha \to 1}{H_{\alpha}(X)} = H(X))]
  • (최소 엔트로피) [math(H_{\infty}(X) = \displaystyle \lim_{\alpha \to \infty}{H_{\alpha}(X)} = -\log_{2} \left( \max_{x \in \mathcal{X}}{p(x)} \right) )]

섀넌 엔트로피는 레니 엔트로피의 [math(\alpha \to 1)]인 특수한 경우이다. 로피탈의 정리를 사용하면 레니 엔트로피의 [math(\alpha \to 1)]의 극한이 섀넌 엔트로피가 됨을 쉽게 보일 수 있다.

2.4. 미분 엔트로피

[math(X)]가 연속 확률 변수인 경우의 섀넌 엔트로피 [math( h(X))]는 특별히 미분 엔트로피(differential entropy)라 하며, 다음과 같이 정의된다.

h(X)=Sf(x)logf(x)dx \displaystyle h(X)=-\int_{S}{f(x)\log f(x)dx}


[math(f(x))]는 [math(X)]의 확률 밀도 함수이며, [math(S)]는 이 확률 변수의 지지 집합(support)이다.

미분 엔트로피는 이산적인 경우의 섀넌 엔트로피와 거의 비슷한 특징을 공유한다. 다음은 섀넌 엔트로피와 차별화되는 미분 엔트로피 [math(h(X))]의 특징이다.
  • 음의 값을 가질 수 있다.
  • 분산[9] [math(\sigma^2)]가 주어진 확률변수 [math(X)]에 대해, [math(h(X) \leq \frac{1}{2} \log2 \pi e\sigma^2)]이다.[10] 따라서 주어진 분산에 대해 엔트로피를 최대화하는 분포는 정규분포이다.
  • 이를 일반적인 [math(n)]차원 확률벡터의 경우로 확장할 수 있다. 확률벡터 [math(\textbf{X} \in \mathbb{R}^n)]가 [math(0)]의 평균과 공분산행렬 [math(K=E[\textbf{X} \textbf{X}^T])]을 가지면 [math(h(\textbf{X}) \leq \frac{1}{2} \log(2 \pi e)^n |K|)]이다.[11] 따라서, 주어진 공분산행렬에 대해 엔트로피를 최대화하는 분포는 마찬가지로 정규분포이다.
  • 연속확률변수 [math(X)]를 [math(n)]비트 정확도로 양자화하는 데 필요한 비트 수는 [math(h(X)+n)]이다.
  • 확률변수 [math(X)]와 그 추정량 [math(\hat{X})]의 평균제곱오차(Mean Squared Error, MSE) [math(E(X-\hat{X})^2)]에 대해, [math(E(X-\hat{X})^2 \geq \frac{1}{2 \pi e} e^{2 h(X)} )]이다.[12]

3. 연관 개념

3.1. 상대 엔트로피

상대 엔트로피(Relative entropy) 혹은 쿨백-라이블러 발산(Kullback-Leibler divergence; KL divergence)은 두 확률 분포간의 '거리'를 측정하는 척도이다. 그러나 대칭성과 삼각부등식을 만족하지 않으므로 일반적인 메트릭에는 해당되지 않는다.

두 확률 질량 함수 [math(p(x))]와 [math(q(x))]에 대한 상대 엔트로피는 다음과 같이 정의된다.

D(pq)=xXp(x)logp(x)q(x) \displaystyle D(p||q) = \sum_{x \in \mathcal{X}} p(x) \log \frac{p(x)}{q(x)}


다음은 상대 엔트로피 [math(D(p||q))]의 특징이다.
  • (정보 부등식) [math(D(p||q) \geq 0)]이다.[13]
  • 일반적으로 [math(D(p||q) \neq D(q||p))]이다.
  • 확률 분포의 순서쌍 [math((p,q))]에 대해 볼록함수이다.
  • 확률 변수 [math(X)]가 확률 분포 [math(p(x))]를 가질 때, 이를 인코딩하기 위해 [math(q(x))]를 대신 사용한다면 평균 코드 길이는 [math(D(p||q))]만큼 증가한다.

3.2. 상호 정보

상호 정보(Mutual information)는 두 확률 변수가 공유하는 '정보'를 측정하는 척도이며, 따라서 대칭적이다.[14]

각각 [math(p(x))], [math(p(y))]를 확률 질량 함수로 갖는 두 이산 확률 변수 [math(X)], [math(Y)]에 대해 상호 정보를 다음과 같이 정의한다.

I(X;Y)=(x,y)(X,Y)p(x,y)logp(x,y)p(x)p(y) \displaystyle I(X;Y) = \sum_{(x,y) \in \mathcal{(X,Y)}} p(x,y) \log \frac{p(x,y)}{p(x)p(y)}


다음은 상호 정보 [math(I(X;Y))]의 특징이다.
  • [math(I(X;Y) = D(p(x,y)||p(x)p(y)) = H(X) + H(Y) - H(X,Y))]로 계산할 수 있다.
  • [math(I(X;X)=H(X))]이다. 따라서 때때로 엔트로피는 자가 정보(self information)로 불리기도 한다.
  • [math(I(X;Y) \geq 0)]이다.[15]
  • [math(I(X;Y))]는 고정된 [math(p(x))]가 주어질 때 [math(p(y|x))]에 대한 볼록함수이며, 고정된 [math(p(y|x))]가 주어질 때 [math(p(x))]에 대한 오목함수이다.
  • (데이터 처리 부등식) [math(X \rightarrow Y \rightarrow Z)]가 마르코프 체인을 이루면 [math(I(X;Y) \geq I(X;Z))]이다.[16]

4. 해석과 응용

예를 들어 a부터 z까지의 알파벳 100글자가 적혀 있는 텍스트 파일이 있다고 하자. 이 파일은 100 바이트 = 800 비트의 크기를 가질 것이다. 그러나 이 파일은 26가지 글자만을 담을 수 있는 제약이 있으므로, 실제로 가질 수 있는 상태는 최대 [math(26^{100})]가지이다. 따라서 이 파일의 엔트로피는 [math(\log_2 26^{100} = )] 약 470 비트가 된다. 즉, 영어 알파벳 1글자의 엔트로피는 글자당 약 4.7비트이다. 대소문자 구별까지 고려할 경우 글자당 약 5.7비트가 된다.

만약 이 파일이 문법에 맞는 영어 문장만을 담고 있다면, 파일의 엔트로피는 더 줄어들게 된다. 랜덤하게 적혀 있는 영어 글자는 말이 되는 문장보다는 말이 안 되는 문장이 훨씬 많기 때문이다. 영어 문장의 엔트로피는 한글자당 1.1 비트 정도로 알려져 있다. 엔트로피 계산은 통계적인 방법에 따라 차이가 난다. 연구 방법에 따라 0.6 비트에서 1.5 비트까지 다양하다.

엔트로피는 이론상 어떤 정보를 나타낼 수 있는 최소한의 비트 수를 의미하기 때문에, 무손실 압축 포맷의 용량은 그 정보의 엔트로피 값보다 작아질 수 없다. 손실 압축 포맷의 경우는 정보가 일부 유실되므로, 엔트로피보다 작은 크기로 줄어들 수 있다.

한글의 경우 한국어에서의 각 자모가 처음으로 등장할 확률 및 마르코프 방법을 이용하면 더 많이 최적화가 가능하다.

5. 물리학에서의 적용

일각의 물리학자들은 이것을 모든 것의 이론의 후보로 꼽기도 한다. 만일 모든 것을 설명할 수 있는 이론 P가 있다고 하자. 이 P가 성립하는 근거는 무엇인가? 우리가 물리법칙에 대해 어떤 이론을 만들든 간에 더 근본적인 이론은 항상 존재해야만 한다.[17] 따라서 모든 것을 설명하는 만물 이론이 정말로 있다면, 그 이론은 아마도 아무런 근거 없이 성립해야 한다. 즉, 모든 자연현상은 본질적으로 엔트로피가 증가하는 확률론적 이유로 일어날 뿐 그 이상의 근본적인 이유는 없다.

결과적으로, 여타 물리법칙들은 정보 엔트로피가 증가하는 방향으로 일어나며, 열역학 제2법칙이야말로 이 우주의 근본 법칙이고, 이를 살펴보는 과정에서 마치 전혀 다른 물리법칙들이 존재하는 것처럼 보일 뿐이라는 것이 이들의 주장이다. 아직 정설로 받아들여지기에는 이르지만, 중력을 시공간 정보 엔트로피의 증가로 설명하는 엔트로피 중력(Entropic gravity) 이론[18]이 제안되어 있다.

5.1. 열역학적 엔트로피와의 관계

클로드 섀넌이 정보통신 이론을 창안할 당시, 정보량의 크기를 나타낼 수 있는 공식을 찾고 있었다. 그러던 중 확률 이론을 도입하여 공식을 만들어내는데, 그렇게 공식을 만들고 보니 열역학적 엔트로피와 동일한 모양이었다.
  • 열역학적 엔트로피(깁스 엔트로피): [math( S= - k_B \sum p_i \ln p_i )]
  • 정보 엔트로피(섀넌 엔트로피): [math( \displaystyle H(X) = - \sum_{i=1}^{n} p(x_i) \log_b p(x_i) )]

이러한 유사성에 착안한 섀넌은 자신의 공식에 엔트로피라는 이름을 붙이게 된다. 그런데 이 유사성이 공식에만 그치지 않는다는 것이 나중에 발견되었다. 정보 엔트로피는 어떤 확률변수가 나타낼 수 있는 상태의 총합으로 정의할 수 있고, 열역학적 엔트로피는 분자들의 배열이 나타낼 수 있는 상태의 총합에 로그함수를 취한 것으로 정의할 수 있다. 즉, 열역학적 엔트로피는 정보 엔트로피의 한 형태이다. 1 J K-1=13.06175 ZB(=11.06373ZiB)에 해당하지만 그렇게 자주 쓰는 표현은 아니다.[19]

맥스웰의 악마 역설은 정보 엔트로피의 개념이 알려지면서 풀렸다. 맥스웰의 악마가 분자를 분류하려면 그 분자의 정보를 알아야 한다. 따라서 도깨비가 물리법칙을 따르는 존재라면 분자에 대한 정보를 저장할 물리적인 시스템을 포함해야 한다. 그리고 이 시스템은 최소 자신이 저장하는 정보만큼의 엔트로피를 가지게 된다(정보 저장을 축전기에 저장된 전하량으로 하든 전자의 스핀으로 하든 상관 없다). 따라서 분자의 분류를 위해 수집하는 정보의 엔트로피가 총엔트로피에 포함되어 결과적으로 시스템 전체의 엔트로피는 증가한다.

6. 여담



[1] 정보를 물리량으로 본 것. [2] 두 사건이 독립일 때 사건 [math(X=x, Y=y)]가 일어날 확률은 [math(P(X=x,Y=y)=P(X=x) P(Y=y))]이므로 총 정보량은 [math(I(X=x, Y=y)=\log\frac{1}{P(X=x, Y=y)}=\log\frac{1}{P(X=x)P(Y=y)} = I(X=x) + I(Y=y))]. [3] The Khinchin Axioms for Entropy의 조건에 다 맞는 정보 측도는 섀넌 엔트로피 밖에 없다는 것을 증명할 수 있다. [4] 확률 변수 [math(X)]가 어떠한 값을 취하는지는 중요하지 않다. 엔트로피를 구할 때는 확률 변수가 어떠한 각각의 값을 취할 확률, 즉 확률 질량 함수의 치역만 고려하면 된다. [5] [math(p(x))]는 항상 [math(0)]과 [math(1)] 사이의 값이며, 따라서 [math(-\log p(x))]은 음이 아닌 실수값을 갖게 되므로 그 기댓값은 반드시 [math(0)]보다 크거나 같다. 등호 성립의 필요충분조건은 [math(X)]가 확률 변수가 아닌 결정론적 값, 즉 상수인 것이다. [6] 균등 분포일 때 섀넌 엔트로피는 [math(\log |\mathcal{X}|)]이므로 이 경우는 부등식의 등호가 성립하는 필요충분조건이다. [7] 정의역 내에서 [math(y=-x \log x )]가 오목함수이므로 이들의 합인 섀넌 엔트로피 역시 오목성을 만족한다. [8] 등호 성립의 필요충분조건은 [math(X)]와 [math(Y)]가 독립인 것이다. [9] 정확히는 2차 모멘트 [10] 등호 성립의 필요충분조건은 [math(X \sim \mathcal{N}(\mu,\sigma^2))]이다. [11] 등호 성립의 필요충분조건은 [math(\textbf{X} \sim \mathcal{N}(0,K))]이다. [12] 등호 성립의 필요충분조건은 [math(X)]가 정규분포이고 [math(\hat{X}=E(X))]인 것이다. [13] 등호 성립의 필요충분조건은 [math(p=q)]이다. [14] [math(X)]가 [math(Y)]에 대해 알고 있는 만큼, [math(Y)]도 [math(X)]에 대해 알고 있다는 뜻이다. [15] 이는 상대 엔트로피의 성질에서 바로 유도되며, 등호 성립의 필요충분조건은 [math(X)]와 [math(Y)]가 독립인 것이다. [16] 등호 성립의 필요충분조건은 [math(I(X;Y|Z) = 0)]인 것이다. [17] 예를 들어 중력의 경우, 뉴턴의 만유인력 법칙이든 아인슈타인의 일반 상대성 이론이든 각각 왜 물체가 다른 물체를 끌어당기는지, 왜 질량이 주변의 시공간을 왜곡시키는지는 설명하지 못한다. 이는 물리학의 한계라기 보다는 인간 논리의 한계이다. ‘왜?’라는 질문을 끊임없이 반복하면 언젠가는 한계에 부딪히기 때문이다. [18] 위 영상은 엔트로피가 증가하는 당연한 현상을 막기 위해 필요한 힘을 곧 엔트로피가 증가하려는 힘으로 간주하는 방법론, 즉 엔트로피 힘을 설명하는 것으로 시작한다. 이를 블랙홀 열역학의 베켄슈타인-호킹 엔트로피와 연결하여, 베켄슈타인-호킹 엔트로피가 증가할 때의 엔트로피 힘을 계산하면 놀랍게도 뉴턴의 중력 방정식과 정확히 동일한 힘이 등장함을 보여준다. 또한 이는 블랙홀 열역학의 홀로그래피 이론에 의해 공간 자체에 대한 것으로 일반화될 수 있다. 다시 말해, 어떤 공간의 질량이 엔트로피가 증가하는 방향으로 움직이다보면 뉴턴의 중력 방정식에 따르게 된다는 것이다. 물론 이는 단순한 우연일수도 있으나, 전혀 관계가 없어보이던 두 법칙이 수학적으로 동일하게 표현된다는 것은 시사하는 바가 깊다. [19] 양자역학에서 J(줄)보다 많이 쓰는 eV(전자볼트)단위로는 1 eV K-1가 약 2092.7 바이트에 해당한다. 1kg=8.98755×1016J라고 잘 쓰지 않는 것과 같은 맥락이다.

파일:CC-white.svg 이 문서의 내용 중 전체 또는 일부는 문서의 r481에서 가져왔습니다. 이전 역사 보러 가기
파일:CC-white.svg 이 문서의 내용 중 전체 또는 일부는 다른 문서에서 가져왔습니다.
[ 펼치기 · 접기 ]
문서의 r481 ( 이전 역사)
문서의 r ( 이전 역사)