Варианты. Можно преобразовать JSON в JSON-Lines (где каждая строчка - это независимый JSON документ представляющий строку таблицы).
Потом загрузить это в spark dataframe
Using Scala version 2.12.15 (OpenJDK 64-Bit Server VM, Java 11.0.17)
Type in expressions to have them evaluated.
Type :help for more information.
scala> val df1 = spark.read.json("/tmp/emp.json")
df1: org.apache.spark.sql.DataFrame = [_corrupt_record: string]
И имея фрейм либо сохранить в CSV либо подключить драйвер JDBC записать прямо в базу.
Еще во фреймворке Pandas есть опции загрузки из JSON. Но я сам не спец в пандасе поэтому
точно как сделать не скажу.
Вот. Еще я помню где-то писал утилиту чтоб произвольные JSON конвертить в JSON-lines.
Короче способов - масса. Беда как обычно в вопрошающем. Что он готов для этого установить
и что выучить.