С профилем проблем нет , там все понятно
вопрос с Angular , он лежит внутри jar файла, т.е. я перед упаковкой сначала минифицирую фронт , и указываю что юзай dev настройки. на выходе получается jar и внутри лежит минифицированый фронт , с настройками dev среды. и дальше я не могу запустить этот же jar на prod мне приходится делать ребилд , с настройками фронта для prod
blackbeard,
не совсем понимаю ваши функции в комманде , если вы чисто админ , то тогда вам нужно только следить за серверами хостами и енваерментом для них , сетевой инфраструктурой ( проты сети впн ключи и т.д. ) , мониторить сервисы которые крутятся на этих портах ( сервера , балансеры , репозитории )
если же у вас функции требуют более тесной взаимосвязи с разработкой то литература по DevOps вам в руки
а так вкратце опишу технологий из списка которые знаю, для более углубленного изучения , добро пожаловать в интернет :)
Maven, Gradle - это сборщики java кода , в процессе сборки они отвечают за компиляцию , упаковку , и подключение библиотек во время сборки , как правило используется один из них.
Hibernate - это библиотека JAVA для отображения зависимостей реляционной базы так называемое ORM (Object Relation Mapping ) - если проще , то библиотека для более простой работы с базой с помощью JAVA
Jdbc - это набор интерфейсов JAVA для работы с базой данных или по другому стандартизированные драйвера для баз данных в JAVA
SVN - хранилище кода (git как аналог)
JSP - Эдакий JAVA фронт-енд ( да такое существует )
REST - готовая стандартизированная архитектура приложения для обработки http запросов (get/put/post/)
SOAP - определенная "конвенция" (договоренность) с помощью которой пишется "своя" архитектура обработки http запросов
P.S.
набор техонологий довольно старенький
для поддержания всего этого уверенн требуется уйма усилий , для этого очень поможет docker
Очень неконкретизированный вопрос:
1. Это нужно одноразово ?
2. Это для теста или бизнес логика ? (если для теста то slenium в руки )
тем не менее если я правильно все понял то вам подойдет эта либа crawler4j с помощью ее можно парсить уже полученую страницу (покрайней мере так написано в док-ции) получить эту страницу думаю можно через дублирование пользовательского запроса
без 3д
небольшие java программки , без графики , только вычисление и куча хешмап
своп файл поставил 6 гб - незнаю зачем , прочитал об этом в каких то мануалах ... особо не заморачивался
в процессе загрузки он тоже забивается под 100%