Half-precision floating-point format
In computing, half precision is a binary floating-point computer number format that occupies 16 bits (two bytes in modern computers) in computer memory.
The IEEE 754 standard specifies a binary16 as having the following format:
- Sign bit: 1 bit
- Exponent width: 5 bits
- Significand precision: 11 bits (10 explicitly stored)
https://en.wikipedia.org/wiki/Half-precision_floating-point_format
Single-precision floating-point format
Single-precision floating-point format is a computer number format, usually occupying 32 bits in computer memory;
https://en.wikipedia.org/wiki/Single-precision_floating-point_format
Biased Exponent
In floating-point arithmetic, a biased exponent is the result of adding some constant (called the bias) to the exponent chosen to make the range of the exponent nonnegative.
Bias 127 (код с излишък 127) е изкуствено добавяне на 127 към желаната експонента, демек ако искаме експонентата да ни е 6 добавяме 6 към 127 = 133
0000 0000 е все едно -127
0111 1111 e все едно 0
1000 0000 е все едно 127
To calculate the bias for an arbitrarily sized floating-point number apply the formula 2k−1 − 1 where k is the number of bits in the exponent.
Мантисата трябва да се нормализира, /тоест да е между 1 и 0.1/ за да се използва напълно обемът на разрядната мрежа.
1 > |a| >= 0.1
В някои процесори е прието условието за нормализирана мантиса да е 2 > |a| >= 1
Литература: