图像下采样算法

| 我可以使用哪种最佳的重新采样算法将图像分成原始大小的一半。速度是最重要的,但是它不会降低质量。我基本上是在尝试生成图像金字塔。 我原本打算跳过像素。这是最好的方法吗?根据我的阅读,像素跳跃产生的图像太清晰了。有人尝试过此评论可以。我的图像包含这样的地图数据。     
已邀请:
跳过像素会导致混叠,其中高频变化(例如明/暗波段交替)将转换为低频(例如亮或暗)。 将尺寸缩小到一半而没有锯齿的最快方法是将2x2像素平均为一个像素。使用更复杂的还原内核可以获得更好的结果,但是它们将以速度为代价。 编辑:这是到目前为止讨论的技术的一些示例。 跳过其他每个像素-通过查看左侧的图例,您会发现效果不是很好。几乎不可读: 平均每个2x2网格-现在,文本清晰易读: 正如R.所建议的那样,是高斯模糊-有点模糊,但到点为止更具可读性。可以调整模糊量以产生不同的结果: R.对于影响结果的Gamma曲线也是正确的,但这仅在最苛刻的应用中才可见。我的示例是在没有伽玛校正的情况下完成的。     
对于缩小比例,面积平均(请参阅Mark的答案)接近您将获得的最佳效果。 其他主要竞争者是高斯,半径稍大。这将增加一点点模糊,这可能是一个缺点,但会使模糊更加均匀,而不是取决于像素mod 2的对齐方式。 如果不清楚我的意思,请考虑像素图案0,0,2,2,0,0和0,0,0,2,2,0。使用面积平均,它们分别缩小到0,2,0和0,1,1-即,一个将变亮和变亮,而另一个将变模糊和变暗。使用更长的滤镜,两者都将变得模糊,但它们看起来会更加相似,这可能对人类观察者至关重要。 另一个要考虑的问题是伽玛。除非伽玛是线性的,否则强度为“ 0”的两个像素的总强度将比强度为“ 1”的单个像素小得多。如果您的滤镜执行了足够的模糊处理,那么可能没什么大不了的,但是使用普通的面积平均滤镜可能会成为一个主要问题。我知道的唯一解决方法是在缩放前后应用和反转伽玛曲线...     
如前所述,如果速度是一个问题,我建议采用2x2块并计算平均值作为结果像素。质量不是可以达到的最好,而是接近。您可以激发该算法来显示其弱点,但是在大多数图像上,您看不到任何差异可以证明计算时间要长很多倍。 您也没有任何内存开销。 如果可以将每个通道的颜色分辨率降低到6bit,这是一种非常快速的方法,可防止您分解ARGB通道(此处假定为32bit ARGB):
destPixel[x,y] = ((sourcePixel[2*x  ,2*y  ]>>2)&0x3f3f3f3f) +
                 ((sourcePixel[2*x+1,2*y  ]>>2)&0x3f3f3f3f) +
                 ((sourcePixel[2*x  ,2*y+1]>>2)&0x3f3f3f3f) +
                 ((sourcePixel[2*x+1,2*y+1]>>2)&0x3f3f3f3f);
此算法的副作用是,如果另存为PNG,则文件大小会变小。 它是这样的:     
我试图概括ThiloKöhler的解决方案(但使用Python):
STRIDE = 2
MASK = 0x3F3F3F3F
color = 0
for Δx, Δy in itertools.product(range(STRIDE), repeat=2):
    color += (get_pixel(x + Δx, y + Δy) // STRIDE) & MASK
这对于按2缩放(四分之一大小的结果)很好,但是对于按3或4或其他int值缩放则无效。有可能将其概括吗? 面向非Pythonista的BTW的for循环与此等效(除了第一个版本可通过更改STRIDE进行扩展):
for Δx, Δy in [(0, 0), (0, 1), (1, 0), (1, 1)]:
    color += (get_pixel(x + Δx, y + Δy) // STRIDE) & MASK
我正在使用32位ARGB值。     
NetPBM套件包括一个名为pamscale的实用程序,该实用程序提供了一些用于下采样的选项。它是开源的,因此您可以尝试各种选项,然后复制最喜欢的算法(或仅使用libnetpbm)。     
http://www.cs.ubc.ca/nest/imager/tr/2011/BlurAwareDownsize/ap-resizing-validation/index.html http://www.cs.ubc.ca/nest/imager/tr/2011/BlurAwareDownsize/ 感知图像降采样     

要回复问题请先登录注册