Советую задать вопрос на нишевых форумах - по Windows Radius server и\или Prometheus. Или Elasticsearch.
Конфигурация нишевая, вижу что тут на ваши вопросы никто не отвечает.
Вы задали очень интересный вопрос! Большинство знакомых, как и я вначале, уверены, что создатель кластера не может потерять к нему доступ.
Я воспроизвел проблему.
Похоже, что что доступ нельзя восстановить без поддержки AWS.
Понял. Очень странно - вроде бы пользователь который создал кластер не должен терять доступ.
Я сам не пробовал воспроизвести, но тут https://stackoverflow.com/questions/59085639/mista... пишут, что можно "One possibility is if one of your Pods uses a ServiceAccount that has permissions to modify ConfigMaps: log in to the node where the Pod is running with SSH, exec into the Pod's Docker container (docker exec -ti bash), and retrieve the ServiceAccount token in /var/run/secrets/kubernetes.io/serviceaccount/token. You can then use this token to access the cluster from your local machine with kubectl"
+1 - ИМХО, просто разработчики MySQL не смогли сделать кэш который эффективно работает со всеми engines и кластерными решениями.
В других базах кэш вполне себе работает.
Евгений, во-первых, спасибо за терпение и ответы.
Всегда раздражаюсь, когда люди плохо формулируют вопрос, но тут я сам виноват.
Вот тут наверно более удачно https://discuss.hashicorp.com/t/how-to-iterate-ove....
На входе у меня 10 названий, по ним надо сделать 10 S3 buckets, на каждый bucket поднять Transfer Server с двумя пользователями.
Я отметил ваш ответ решением, поскольку дальше уже неудобно бесплатно морочить голову.
Если у меня не получится самому сочинить я напишу в whatsapp|telegram и попрошу платную консультацию.