涉及面試題:為什麼
0.1 + 0.2 != 0.3?
如何解決這個問題?
原因,因為 JS
採用 IEEE 754
雙精度版本(64
位),並且只要採用 IEEE 754
的語言都有該問題
我們都知道計算機是通過二進位制來儲存東西的,那麼
0.1
在二進位制中會表示為
// (0011) 表示迴圈
0.1 = 2^-4 * 1.10011(0011)
我們可以發現,
0.1
在二進位制中是無限迴圈的一些數位,其實不只是0.1
,其實很多十進位制小數用二進位制表示都是無限迴圈的。這樣其實沒什麼問題,但是JS
採用的浮點數標準卻會裁剪掉我們的數位。
IEEE 754
雙精度版本(64
位)將 64
位分為了三段
11
位用來表示指數0.1
中的 10011(0011)
那麼這些迴圈的數位被裁剪了,就會出現精度丟失的問題,也就造成了
0.1
不再是0.1
了,而是變成了0.100000000000000002
0.100000000000000002 === 0.1 // true
那麼同樣的,
0.2
在二進位制也是無限迴圈的,被裁剪後也失去了精度變成了0.200000000000000002
0.200000000000000002 === 0.2 // true
所以這兩者相加不等於
0.3
而是0.300000000000000004
0.1 + 0.2 === 0.30000000000000004 // true
那麼可能你又會有一個疑問,既然
0.1
不是0.1
,那為什麼console.log(0.1)
卻是正確的呢?
因為在輸入內容的時候,二進位制被轉換為了十進位制,十進位制又被轉換為了字串,在這個轉換的過程中發生了取近似值的過程,所以列印出來的其實是一個近似值,你也可以通過以下程式碼來驗證
console.log(0.100000000000000002) // 0.1
解決
parseFloat((0.1 + 0.2).toFixed(10)) === 0.3 // true