Просто размышления на достаточно отвлеченную тему.
Если мы создадим модель с помощью машинного обучения, которая будет например переводить RGB в некий GCR - фактически в результате тренировки такой модели на примерах цветоделения, мы получим специфический аналог обычной CLUT таблицы профиля ICC. Только более шумный. Тем сильнее шумный, чем больше будет разница по уровню GCR в образцах для тренировки модели. И все же по сути, с погрешностями будет выглядеть такая модель фактически как тег BToA ICC, только построенная не при помощи многомерных интерполяций, а при помощи перебора вариантов.
Грэм создает в CMYK каналах такой же шум именно из-за перебора вариантов CMYK. Считает медленно, все-таки перебор - удел Nvidia, а не центрального процессора, а по результату из некоего набора возможных цмиков берется среднее (или иное значение массива вариантов в зависимости от генерации черного), очевидно плавности так между соседними значениями узлов таблицы CLUT не добиться. Алгоритм Грэма для Lab➔CMYK отдаленно похож на нейросеть перебором вариантов, только медленнее на CPU, а по результату - такой же шум в каналах, и не теоретический, а вполне заметный.
Так вот вопрос: как по вашему, насколько перспективно поручать матричный переход RGB➔CMYK нейросети, или это вообще бесперспективно?
По-моему, второе, окольным путем мы придем к той же CLUT ICC, только худшего качества.
Трантор мне писал, что задачи, которые можно решить аналитически, по формулам и алгоритмам, не стоит поручать нейросетям. Я так раздумываю, что тут именно тот случай, когда лучше аналитических решений для создания CLUT тех или иных, нейросеть с машинным обучением не будут. Нейросеть на хорошо тренированной модели лишь плохо повторит то, что вычисляется и так по интерполяционным формулам, без машинного обучения модели на примерах того или иного цветоделения, даже однотипного.