Эта тема обычно называется просто парсинг, там есть слова DSL, BNF, Lex Yacc. Если взять, например, питон, то там есть куча разного уровня универсальности и сложности библиотек специально для парсинга чего угодно. Две популярных - это PyParsing и PLY (Python Lex Yacc). Они даже в учебниках по питону часто разбираются, но тема, конечно, сложная, копипаста из гугла сама по себе не заработает.
Rektalizer, такую задачу можно хотя бы попробовать решить. Первая большая сложность в том, что надо рассказать нейронке про взаимное положение полигонов. Очевидный вариант - двумерная карта/картинка и свертки. Тут сразу куча деталей про размер, масштаб и способ кодирования инофрмации. С рекуррентными нейронками будет еще сложнее. Вторая большая сложность - таргет. Наверное, стоит за раз предсказывать положение только одной поливалки - изначально их нет, а потом они по одной добавляются в подходящее место, пока польза от них еще есть. Тут-то возникает третья умеренная сложность - функция потерь . По дефолту это ж будет просто расстояние, на которое нейронка ошиблась (не забыть про масштаб из первой сложности), а возможно надо сразу реализовать типа человечью логику выбора места (особенно если данных мало). Ну, вот и все - решаем три сложные проблемы, обучаем, тестируем, победа.
Для данных с сильно разным размером обычно используют рекуррентые нейронные сети. В этом случае каждую сущность (полигон) подают по очереди. А в сверточные сети подают все сразу, но в виде двумерной карты/картинки (или нескольких), в которой каждый пиксель чем-то заполнен, т.е. просто набор полигонов не подходит, надо его на координатную плоскость положить. Но в любом случае надо начать с постановки задачи и формализации входных и выходных данных. Из этого потока сознания можно сделать вывод, что вроде речь идет об оптимальном размещении поливалок, - в таких случаях обычно начинают не с нейронок, а если доходят до неройнок, то почти всегда приходится существенно преобразовывать имеющиеся данные и временами даже вручную дорабатывать функцию потерь.
Тут же только временные объекты. Чаще такое происходит во время вызова функций и методов, там это называется в общем случае copy elision. А тут речь про инициализацию временными объектами. Это назывется - выражение для инициализации превращается компилятором в prvalue, которая не предполагает обязательного создания временного объекта. Так что вся цепочка временных объектов просто не создается. Инициализация в плюсах тема страшная. Она называется Declarators -> Initializers. Например, https://timsong-cpp.github.io/cppwp/n4659/dcl.init
Евгений Лернер, все нейронки про векторы, которые в общем случае - матрицы (тензоры). На практике все нейронки - это перемножение матриц. Хороший учебник по нейронкам с кратким и адекватным введением - Франсуа Шолле Глубокое обучение на питоне - книга про керас от автора кераса. Самое свежеее издание, наверное, доступно только на английском. Если векторы и матрицы даются сложно, то лучше начать с них - на практике это называется введение в анализ данных (в случае с питоном идет речь о нампае и пандасе).
Большинство учебников про нейронки и конкретные библиотеки как раз про это и рассказывают. Как, в принципе, и абсолютно любой пример работы с рекуррентными нейронными сетями - там прям и данные, и код, и пояснения.
Например, perceptilabs. А вообще просто гугли что-то по типу "tensorflow visual scripting", заменяя тф на керас или пайторч. Сам не пробовал. Даже не знаю, кто целевая аудитория таких продуктов.
Задание на практике для новичка, который искал, но ничего не нашел? Я вот в гугл сходил своим пешком и спросил "neural network clean text scan". Первый же результат из гугла - это "Cleaning Up Dirty Scanned Documents with Deep Learning" на сайте medium.com, где прям и код, и ссылки. Можно сразу пойти на towardsdatascience.com, там большинство прикладных задач рассмотрено в каком-то виде точно так же с готовым кодом.
Я бы предложил погуглить что-то вроде "math basics for machine learning". На английском языке доступно очень много именно обзорных материалов о том, какая для ml нужна математика. Можно почитать, можно пройти бесплатные курсы на coursera, например. Причем сама математика там будет сразу прикладная. А потом самому практиковаться/запоминать, конечно, придется много. На русском тоже можно найти, но материалов сильно меньше.
LSTM - это и есть самый распространенный вид RNN. Нейросети не подходят для решения задачи "сделай мне все хорошо". Пока что проблема выглядит, как обычный/необычный парсинг структурированного/произвольного текста. Может, с этого стоит начать?
Если вдруг нужно прямо в питоне сделать более-менее эффективную числодробилку, то хороший и простой вариант - это numpy + numba. Здесь именно numba отвечает за компиляцию кода и распараллеливание циклов. Альтернатива - cython.
Первая же ссылка из гугла по запросу "unreal engine fade effects" дает сразу два варианта для такого - для гуи и для сцены:
Open your Widget Blueprint where you have the UI and create a new animation called “Fade Out”.
Level Sequences also have a “Fade” track that will fade everything except UI.