JavaScript中為什麼 0.1 + 0.2 != 0.3

2020-11-13 13:00:51

涉及面試題:為什麼 0.1 + 0.2 != 0.3?如何解決這個問題?

原因,因為 JS 採用 IEEE 754雙精度版本(64位),並且只要採用 IEEE 754的語言都有該問題

我們都知道計算機是通過二進位制來儲存東西的,那麼 0.1 在二進位制中會表示為

// (0011) 表示迴圈
0.1 = 2^-4 * 1.10011(0011)

我們可以發現,0.1 在二進位制中是無限迴圈的一些數位,其實不只是 0.1,其實很多十進位制小數用二進位制表示都是無限迴圈的。這樣其實沒什麼問題,但是 JS採用的浮點數標準卻會裁剪掉我們的數位。

IEEE 754 雙精度版本(64位)將 64 位分為了三段

  • 第一位用來表示符號
  • 接下去的 11 位用來表示指數
  • 其他的位數用來表示有效位,也就是用二進位制表示 0.1 中的 10011(0011)

那麼這些迴圈的數位被裁剪了,就會出現精度丟失的問題,也就造成了 0.1 不再是 0.1 了,而是變成了 0.100000000000000002

0.100000000000000002 === 0.1 // true

那麼同樣的,0.2 在二進位制也是無限迴圈的,被裁剪後也失去了精度變成了 0.200000000000000002

0.200000000000000002 === 0.2 // true

所以這兩者相加不等於 0.3 而是 0.300000000000000004

0.1 + 0.2 === 0.30000000000000004 // true

那麼可能你又會有一個疑問,既然 0.1 不是 0.1,那為什麼 console.log(0.1) 卻是正確的呢?

因為在輸入內容的時候,二進位制被轉換為了十進位制,十進位制又被轉換為了字串,在這個轉換的過程中發生了取近似值的過程,所以列印出來的其實是一個近似值,你也可以通過以下程式碼來驗證

console.log(0.100000000000000002) // 0.1

解決

parseFloat((0.1 + 0.2).toFixed(10)) === 0.3 // true