数字处理中的二进制、向量与矩阵代数及概率统计基础
1. 十进制数的二进制表示
在数字数据处理中,我们常提及二进制格式的数字,因为计算机以这种形式表示数据。在二进制系统中,数字按列排列,每列代表 2 的幂次方;而在十进制系统中,数字按列排列,每列代表 10 的幂次方。在十进制系统的每一列中,我们可以数到 9,而在二进制系统的每一列中,只能数到 1。从右往左,二进制的列分别称为 2⁰、2¹、2² 等,这表示每列所能表示的最高十进制数。例如,十进制数 0 到 7 的二进制表示如下:
| 十进制 | 二进制(2²) | 二进制(2¹) | 二进制(2⁰) |
| ---- | ---- | ---- | ---- |
| 0 | 0 | 0 | 0 |
| 1 | 0 | 0 | 1 |
| 2 | 0 | 1 | 0 |
| 3 | 0 | 1 | 1(即 2 + 1) |
| 4 | 1 | 0 | 0 |
| 5 | 1 | 0 | 1(即 4 + 1) |
| 6 | 1 | 1 | 0(即 4 + 2) |
| 7 | 1 | 1 | 1(即 4 + 2 + 1) |
二进制系统中的数字位称为“位(bit)”。从上述示例可以看出,三个位可以表示八个不同的十进制值(0 到 7),但无法表示大于 7 的十进制数。要表示 0 到 15 这 16 个十进制数,则需要一个 4 位的二进制字,此时 1111 相当于十进制的 15。不同位数所能表示的十进制值数量如下表所示:
| 位数 | 十进制级别 | 范围 |
| ---- | ---- | ---- |
| 1 | 2 | 0,