@Mirozr

Как правильно делать Q-обучение и/или что лучше использовать для генетического алгоритма игры в Змейку?

Мой код я скину в комментарии, он не вместился (если понадобиться могу ещё доскинуть код без ООП).

Ошибка на данный момент:
Traceback (most recent call last):
  File "", line 748, in <module>
    game.game(model=snake.model, calculate_reward=snake.calculate_reward, custom_loss=snake.custom_loss, neural_network=snake.neural_network, bui
ld=snake.build_neural_network, snake=snake, optimizer=0.4)
  File "", line 618, in game
    self.starter(snake, optimizer)
  File "", line 472, in starter
    self.game(model=snake.model, calculate_reward=snake.calculate_reward,
  File "", line 503, in game
    snake.set_weights(genetic_result[1])
  File "", line 706, in set_weights
    return self.model.set_weights(weights)
  File "", line 1797, in set_weights
    raise ValueError(
ValueError: You called `set_weights(weights)` on layer "sequential" with a weight list of length 0, but the layer was expecting 4 weights. Provided weights: []...
  • Вопрос задан
  • 91 просмотр
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы