K>Я так понял, пока консистентность не поддерживается.
Там всё так быстро меняется, что вчерашнее "невозможно", сегодня уже тривиальная задача.
Сохранять консистентность персонажа раньше было сложновато, но при помощи Лор (LoRA — low rank adaptation, небольшая надстройка над нейросетью), её вполне делали. Это был простой метод, но нужно было от 30 до 3-х (в прошлом году надо было больше, потом всё меньше) — качественных фоток персонажа.
Но буквально за лето вышла куча сильных моделей, "понимающих" исходную картинку, и способных делать производные. Первыми были HiDream E1 и Flux Kontext, затем появилась Qwen-Image-Edit, и вот меньше недели назад вышла nanobanana, которую правда локально не запустишь, но в google ai studio можно использовать бесплатно.
Такие задачи как поменять ракурс, удалить объект (по описанию), или заменить в руках пистолет на цветочек — для них тривиальная задача. При этом они не работают как человек — меняя только маленький регион, а буквально генерируют новое изображение с нуля, но с нужной модификацией. Это такой уровень консистентности картинки, который обычному художнику и не снился.
Так что на сегодня самый простой способ — взять любую из этих моделей (с nanobanana новичку будет проще), дать на вход пример персонажей, и описать сцену с ними. Будет комикс. Даже если изначально персонажи, например, фотографии, достаточно указать что "с ними но комикс", лол. Ах да, для умных моделей ты можешь подписать персонажей (прямо на стартовой картинке, шрифт любой, лишь бы читаемый), чтобы в промпте называть их по именам. Модель прочитает подписи, и поймёт кого ты хочешь посадить на стул, а кого поставить на фоне окна с сердитой мордой.