Я прекрасно воспроизвел алгоритм в MATLAB (на основании ответа @ Ivan Kuckir ):
function [ mO ] = ApplyBlackWhiteFilter( mI, vCoeffValues )
FALSE = 0;
TRUE = 1;
OFF = 0;
ON = 1;
numRows = size(mI, 1);
numCols = size(mI, 2);
dataClass = class(mI);
numCoeff = size(vCoeffValues, 1);
hueRadius = 1 / numCoeff;
vHueVal = [0:(numCoeff - 1)] * hueRadius;
mHsl = ConvertRgbToHsl(mI);
mO = zeros(numRows, numCols, dataClass);
vCoeffValues = numCoeff * vCoeffValues;
for jj = 1:numCols
for ii = 1:numRows
hueVal = mHsl(ii, jj, 1);
lumCoeff = 0;
% For kk = 1 we're dealing with circular distance
diffVal = min(abs(vHueVal(1) - hueVal), abs(1 - hueVal));
lumCoeff = lumCoeff + (vCoeffValues(1) * max(0, hueRadius - diffVal));
for kk = 2:numCoeff
lumCoeff = lumCoeff + (vCoeffValues(kk) * max(0, hueRadius - abs(vHueVal(kk) - hueVal)));
end
mO(ii, jj) = mHsl(ii, jj, 3) * (1 + lumCoeff);
end
end
end
Обратите внимание, что преобразование из vPhotoshopValues
в vCoeffValues
должно быть сделано как vCoeffValues = (vPhotoshopValues - 50) ./ 50
.
Поскольку значения Photoshop находятся в [-200, 300] и должны быть линейно отображены в [-5, 5] с 50 -> 0
.
Вот сравнение с фотошопом:
Максимальная ошибка меньше 1 в диапазоне [0, 255].
Полный код доступен в моем хранилище обработки сигналов StackExchange Q688 GitHub .