为什么计算机不使用厘米?



我有一个问题,为什么电脑不使用厘米(或英寸)代替像素?

我开始思考这个问题,我不明白为什么几乎所有东西都不是用厘米或其他现实生活中的测量单位来测量的。像素不是一个真正的测量单位(pixel != pixel)。

如果我们进入HTML,结果网页可以有一个完全不同的外观或不可读,如果文本大小以像素定义(我知道像素不建议指定文本大小)。

但是为什么不用厘米呢?您定义以厘米为单位的字体大小,读取设备查找有多少像素对应于一厘米(最接近的近似值),并将结果转换为像素。这是一个简单的操作,无论屏幕的像素密度如何,用户总是会看到一个可读的文本,就像它打算显示的那样。

这个概念可以扩展,以便GUI元素(操作系统,应用程序,HTML网页导航)以厘米为单位指定,并由矢量图形组成,以便无论它们显示在哪个显示器上,它们看起来总是相同的大小。

我的问题是为什么没有真正的测量使用在计算机特别是网页(HTML,CSS),操作系统和应用程序?是什么阻碍了实际尺寸的使用?

像素允许对显示进行非常精细的控制,并允许跨设备方法显示图形数据。

有一种测量称为PPI(像素每英寸),也称为像素密度。这是因为像素的定义或实现可能在所有设备上都不一样。

通过使用像素,可以为用户的设备计算显示,而厘米或英寸是静态的。

如果你用厘米来显示,它在显示器上看起来很好,但在手机等小型设备上看起来就不一样了。

计算机本质上是使用少量数字信息的机器。屏幕或显示器的最小测量单位是像素,就像原子是模拟世界中物质的最小实际单位一样。

显示器也可能具有不同程度的分辨率(每单位长度的像素数,在过去称为DPI或Dots per Inch)和深度(任何单个像素可能具有的不同颜色的数量,通常为2的幂)。"8位"颜色意味着每像素2的8次方= 256种不同的颜色,而"32位"意味着超过40亿种不同的颜色)。最早广泛使用的屏幕分辨率之一是72 DPI ~= 183点/厘米,只有8位颜色。

同样,线性测量标准可能不会产生整数。例如,如果你的像素孔径不是1/10厘米(或1/x, x任何你想要的数字),那么就没有办法准确地表达屏幕上任何物体的大小。例如,如果屏幕密度是每2厘米恰好有439个像素,那么像素到线性测量的计算将是非常麻烦的。

相关内容

  • 没有找到相关文章

最新更新