Я создал собственный CIKernel в Metal. Это полезно, потому что оно приближено к реальному времени. Я избегаю любых cgcontext или cicontext, которые могут отставать в реальном времени. Мое ядро, по сути, выполняет преобразование Хафа, но я не могу понять, как читать белые точки из буфера изображений.
Вот kernel.metal:
#include <CoreImage/CoreImage.h>
extern "C" {
namespace coreimage {
float4 hough(sampler src) {
// Math
// More Math
// eventually:
if (luminance > 0.8) {
uint2 position = src.coord()
// Somehow add this to an array because I need to know the x,y pair
}
return float4(luminance, luminance, luminance, 1.0);
}
}
}
Я не возражаю, если эту часть можно извлечь в другое ядро или функцию. Предостережение для CIKernel заключается в том, что его тип возвращаемого значения - float4, представляющий новый цвет пикселя. В идеале вместо image -> image
фильтра я хотел бы сделать image -> array
вид сделки. Например. уменьшить вместо карты. У меня плохое предчувствие, что мне потребуется отрендерить его и обработать на CPU.
В конечном итоге я хочу получить соответствующие координаты (которых может быть несколько на изображение) обратно в моей быстрой функции.
ОКОНЧАТЕЛЬНОЕ РЕШЕНИЕ:
Согласно предложениям ответа, я выполняю большие попиксельные вычисления на графическом процессоре и некоторую математику на процессоре. Я разработал 2 дополнительных ядра, которые работают как встроенные ядра сокращения. Одно ядро возвращает изображение высотой 1 пиксель для наивысших значений в каждом столбце, а другое ядро возвращает изображение высотой 1 пиксель нормализованной координаты y наивысшего значения:
/// Returns the maximum value in each column.
///
/// - Parameter src: a sampler for the input texture
/// - Returns: maximum value in for column
float4 maxValueForColumn(sampler src) {
const float2 size = float2(src.extent().z, src.extent().w);
/// Destination pixel coordinate, normalized
const float2 pos = src.coord();
float maxV = 0;
for (float y = 0; y < size.y; y++) {
float v = src.sample(float2(pos.x, y / size.y)).x;
if (v > maxV) {
maxV = v;
}
}
return float4(maxV, maxV, maxV, 1.0);
}
/// Returns the normalized coordinate of the maximum value in each column.
///
/// - Parameter src: a sampler for the input texture
/// - Returns: normalized y-coordinate of the maximum value in for column
float4 maxCoordForColumn(sampler src) {
const float2 size = float2(src.extent().z, src.extent().w);
/// Destination pixel coordinate, normalized
const float2 pos = src.coord();
float maxV = 0;
float maxY = 0;
for (float y = 0; y < size.y; y++) {
float v = src.sample(float2(pos.x, y / size.y)).x;
if (v > maxV) {
maxY = y / size.y;
maxV = v;
}
}
return float4(maxY, maxY, maxY, 1.0);
}
Это не даст каждый пиксель, где яркость больше 0,8, но для моих целей он возвращает достаточно: максимальное значение в каждом столбце и его местоположение.
Плюс: копирование в ЦП только байтов (2 * ширины изображения) вместо каждого пикселя экономит ТОННУ времени (несколько мс).
Против: если у вас есть две основные белые точки в одном столбце, вы никогда не узнаете. Возможно, вам придется изменить это и выполнять вычисления по строкам, а не по столбцам, если это соответствует вашему варианту использования.
ПОСЛЕДУЮЩИЕ ДЕЙСТВИЯ:
Кажется, возникла проблема с отображением выходных данных. Значения Float, возвращаемые в metal, не коррелируют со значениями UInt8, которые я получаю быстро.
Этот вопрос без ответа описывает проблему.
Изменить: Ответ на этот вопрос предоставляет очень удобная металлическая функция. Когда вы вызываете его на металлическом значении (например, 0,5) и возвращаете его, вы получите правильное значение (например, 128) на ЦП.