Скорее всего выбранный инструмент подходит для задачи слабо. У llama3 выполнение инструкций на уровне 60%-70% , т.е. треть данных она будет пропускать или ещё хуже, выдумывать.
У llama3-70b (именно ее качество такое высокое, у 8b оно заметно ниже) есть ещё беда, она может ответ дать в случайном виде, не машиночитаемом, хоть и вернвм, а значит для чтения потребуется городить многоуровневую систему из того же ИИ и ручного распознавания.
Скорее всего твоя задача лучше решается предварительным анализом классическими алгоритмами.
И ещё момент, локальные сети эффективнее использовать, дообучая на своих запросах и данных (сотни и тысячи примеров), так полученная сеть будет лучше давать результат но ценой уменьшения универсальности.