Прикрепи пример запроса POST. Содержимое contentBase64 замаскируй, оставив только первые 20 символов. Другие чувствительные данные (имена, токены и пр.) замени на ***.
Если есть пример cURL - еще лучше.
Стоит заметить, что дампы можно просмотреть через утилиту
xxd
. Убедившись воочию, что файлы мало чем могут быть полезны, от них можно смело избавляться. А если вдруг возникло сомнение, то file может угадать что за тип файла (если ему знаком).
этот пример похож на применение БЯМ. Суть состоит в том, что БЯМ скармливается определенное кол-во контекста на основе серии вводных данных, взятых с источника (документ и т.д.) и затем спрашиваешь БЯМ что-нибудь по теме.
БЯМ - это более точный (с точки зрения человека), дорогой и медленный способ работы с текстом на сегодняшний день. Они способны лучше понимать контекст документа. БЯМ ограничены по размеру контекста (макс. 64-128 K токенов). Гугль анонсировал контекст в 1 М в модели Gemini 1.5 Pro. Итак, если по размеру контекста документ "влезает", то отлично. Иначе придется разбивать его на куски.
Векторное представление текста (ВПТ) - он просто как продвинутый поисковый движок с точки зрения понимания смысла текста и не умеет считать, искать связи между объектами, что-либо предлагать и пр. Полезно когда нужно просто найти что-то на какую-то тему в горе документов, задав простым предложением суть.
С БЯМ проблема состоит в том, что нельзя "сохранить" результаты контекста у себя в СУБД и поэтому нужно при каждом запросе для документа разбивать на куски, отправлять как контекст и затем только задавать вопросы. А с ВПТ можно один раз "проанализировать" и затем сколь угодно спрашивать, обращаясь к собственной СУБД.