Есть ветка от проекта: GPT-2 нейросеть от OpenAI.
Тут на github от nshepperd
В нем можно создавать свою обучаемую модель, достаточно подготовить исходную информацию.
Я хочу делать эксперименты, мне нужно что бы нейронка генерировала логически осмысленные текста на одну тему, например эта тема будет про "ловлю рыбы на реке."
Я думаю купить несколько книг на эту тему и текст отдать на обучение. Но вот вопрос...
Есть какой средний минимум? Сколько нужно текста?
И еще, может есть другие проекты с открытым кодом с поддержкой русского языка?