Задать вопрос
Ответы пользователя по тегу Искусственный интеллект
  • Как создать чат бот для проверки домашних дел у ребёнка?

    @rPman
    Да, реализовать можно, но качество будет не высоким, ведь понятие порядок у уже обученных ИИ может сильно отличаться от вашего мнения.

    Можно дообучить модель - классификатор, затратив не сильно много денег (есть google-ские vl модельки от 2b, есть qwen-овские и 2b и 9b и 90b на любой вкус и деньги), но даже в этом случае скорее всего качество распознавания 'в лоб' будет порядка 70% ну и обучающую выборку создавать нужно будет долго и кропотливо, каждый раз снимая фото до и после (желательно много раз с разных ракурсов и в разные моменты уборки).

    Если не решать задачу в лоб, то используй фейсбуковскую SAM2 (или прежняя SAM), она разобьет изображение на объекты, каждый объект можно получить его координаты, описание и т.п. вот полученную информацию можно как то обрабатывать уже классическими алгоритмами, ведь будет видно что каждая вещь на каком месте... но качество фото должно быть высоким.

    p.s. а можно не использовать нейронку, а делать фото из одного и того же места (закрепить камеру) и сравнивать фото в момент, когда комната была прибрана и когда нет, по количеству расхождений... а вот что именно сравнивать уже вопрос.
    Ответ написан
  • ИИ на стадии обучения программированию. Стоит ли?

    @rPman
    На текущей стадии у ИИ нет никаких шансов заменить человека полностью, но это уже отличный инструмент, которые может повысить производительность программиста, что собственно и происходит.

    Учиться нужно, чем сильнее ИИ будет интегрироваться в нашу жизнь, тем более умные/опытные люди будут нужны (а соответственно середнячки отойдут на обочину жизни).

    Поэтому учись, это наиважнейшее умение, что у тебя пока ИИ не отнимет. Учись работать с ИИ, ты должен понимать не только его возможности но и его недостатки.. изучай, как можно обходить их и продолжать извлекать из этого пользу.
    Ответ написан
    Комментировать
  • Как получить данные в виде JSON/String от LLM?

    @rPman
    В api некоторых провайдеров есть опция structured outputs.

    Например для локальных открытых сетей в llama.cpp можно задать грамматику, и ответ будет генерироваться таким, что бы ей соответствовать... работает не идеально, исходя из особенностей gpt качество структурированных ответов ниже чем свободных, но с ними легче работать в своих скриптах автоматизации.
    Ответ написан
    Комментировать
  • Какая локальная нейросеть учится на моей базе документов?

    @rPman
    Главное ограничение современного ИИ а основе gpt - это размер контекста, а именно, сколько влезет информации в один запрос. Чем больше размер контекста, тем хуже качество, причем падение стремительное. Открытые сети, которые можно запустить локально, обычно основаны на 8к-16к токенов, и даже если заявлены 128к или миллион, то качество будет очень низкое, ИИ будет путаться и пропускать данные, выдумывать свои... что критично для и без того не очень качественные результаты.

    Если в пределах одного документа на ручных тестах результат тебя устраивает, значит необходимо разработать систему, которая будет предварительно анализировать эти документы (условно строить индекс), и потом каждый запрос пользователя анализировать и пытаться понять, какие документы нужно а какие пропустить. И вот тут огромный простор для экспериментов.

    Самое тупое но достаточно качественное - по очереди для каждого документа задаешь свой вопрос, ответы складываешь в контекстное окно (предварительно пропуская через фильтр - 'является ли это ответом на мой вопрос '...'?'), итоговое контекстное окно снова дополняешь вопросом, и выводишь ответ. Это почти самый точный способ (не подходит, когда для ответа нужна информация сразу из нескольких документов) но очень долгий/дорогой, если база документов большая.

    Поэтому для каждого запроса нужно исключать из анализа ненужные документы. Например уже названный RAG, по простому, все документы делится на кусочки (условно абзацы или предложения), по каждому строится числовой вектор смысла Embeddings (разные, есть готовые на основе трансформера), и то же самое делать для вопроса пользователя... полученные вектора сравниваются, вычисляется расстояние, меньше расстояние - ближе по смыслу. Таким образом простым поиском можно найти какие части документа будут скорее всего полезны для ответа на вопрос. А дальше огромное поле для вариантов, например, загружаешь в контекстное окно целиком документ, вектора которых близки по смыслу с вопросом или их больше количественно (суммирование тоже нужно с умом делать). Мне нравится идея, когда, документы (несколько) которые подходят, прогоняют по одному отдельным промптом с вопросом - что из этого документа полезно для вот этого вопроса... собранную информацию затем заливаешь в итоговое контекстное окно и пусть оно разбирается.

    Есть еще подход, когда изначальный список документов долго и упорно обрабатывается и на его основе строится древовидная структура - Document Hierarchy Generation, Knowledge Graphs, Hierarchical topic tree и прочее (погугли что там выскикавает на эти названия) и уже с ее помощью можно принимать решение, какие именно дукументы нужны.

    Для небольшого количества документов можно предварительно использовать самморизацию этих документов или их частей, образуя некоторый каталог-выжимку, сложив которую в один запрос можно задавать вопросы уже к нему.. т.е. исходный вопрос задаешь к этой выжимке ('вот список документов с кратким описанием, какие из них необходимо прочитать что бы получить ответ на следующий вопрос: ...',.. нормальные gpt сети мало галлюцинируют, если в тексте будет идентификатор документа и текст по нему.. но к примеру слабые 8b модели работают плохо (но я пробовал давно, возможно уже deepseek distilled модели уже лучше с этим)
    Ответ написан
    Комментировать
  • Как определить объем кода в проекте сгенерированный нейронкой?

    @rPman
    Очень ненадёжно, скорее всего это будет работать именно для программного кода но не текстов.

    Можно посмотреть на perplexity сгенерированого (точнее алгоритм похож), условно на сколько текст отличается от того что могла бы сгенерировать нейронка... примерный алгоритм:

    на вход нейронной сети продается текст, какая то его начальная часть (собственно разделение исходников на блоки и создание стартового промпта и есть проблема, решив которую алгоритм будет работать как ожидается), и проверяем какая вероятность следующего токена (по тексту), условно говоря в нашем тексте "2+2=четыре" (словом не числом), и после "=" ожидаются пробел, буква "ч" или цифра 4, с разными вероятностями, запоминаем вероятность буквы "ч", так делаем для каждого токена, как то складываем собранные вероятности и получение число, чем выше, тем больше шансов что текст сгенерирован этой нейронкой?
    На сколько я помню в perplexity складывают логарифмы вероятностей. Возможно лучше смотреть не на вероятность x, а на 1/x и соответственно сложить, потом разделить на количество токенов, и чем меньше результат тем лучше. Так же можно смотреть разницу между вероятность сгенерировано нейронкой токена и вероятность токена из текста.

    В итоге для каждого кусочка файла в проекте ты можешь посчитать некоторую метрику - неуверенность нейронки в нем, чем меньше нейронка уверена в ответе тем выше шансы что ответ не банальщина и не придумал нейронкой. К сожалению, вычислять придется эту метрику для всех популярных нейронок, так как результат будет разным.

    Так как тебе нужно еще и посчитать, сколько конкретно каждый участник на 'говнокодил', тебе нужно будет предварительно еще и разметить, какой участок кода чей (для этого придется пройти по всему логу изменений, правда под вопросом доля участия, ведь человек может изменить один символ в строчке, ему одну строчку засчитать? всю функцию? весь файл?)
    Ответ написан
    Комментировать
  • Как заставить Deepseek r1 (8b,14b) отвечать по-русски?

    @rPman
    Это фича модели, сами разработчики об этом заявляют, что более менее адекватно она будет работать только с английским и китайским.

    Используй другие модели до и после, для перевода вопроса с русского на английский и обратно.

    И еще момент, 8b модель это дистиляция, у них конечно получилось нечто шикарное именно дистиляцией (особенно qwen модели) но все же 8b очень слабая модель, толку от нее будет мало.

    https://huggingface.co/collections/deepseek-ai/dee...

    Если тебя устраивала llama3.1 8b, то попробуй ее тюн на основе deepseek r1, говорят дистилированные модели стали неожиданно лучше чем то на чем они основаны, забрав у deepseek умение рассуждать по типу o1

    И еще момент, не пользуйся квантизацией для этих маленьких моделей, или хотя бы 8b, так как качество будет падать заметнее чем квантизация оригинальных больших

    Ну и чем больше весов будет у модели тем лучше, говорят deepseek-r1-llama70b очень очень хороша, и требования у нее такие что взять на vast.ai машину за дешево можно ею пользоваться на 'всю катушку'

    Ну и расуждающие модели очень по разному будут работать от разных промптов, а уж если будешь вмешиваться в рссуждения (условно останавливаешь периодически, и просишь эту или другую модель проверить рассуждения, подправить, вернуть первоначальный запрос и продолжить рассуждения)
    DeepSeek-R1-Distill-Qwen-14B, 8b квантизация 2x16gb vram, vllm, вопрос и ответ на английском, переведено гуглом

    Вопрос:
    У мальчика Пети три сестры — Алина, Марина и Катя, и два брата Сергей и Михаил. Сколько братьев у Алины?

    p.s. если что на такие вопросы даже старшие модели могут отвечать фигню, а gpt3.5 почти всегда отвечает бред, даже с лайфхаками

    Ответ:
    <think>
    Хорошо, мне нужно выяснить, сколько братьев у Алины. Давайте начнем с пошагового понимания проблемы.

    Во-первых, дана информация о том, что у Пети три сестры: Алина, Марина и Катя. У него также есть два брата: Сергей и Михаил. Итак, Петя — мальчик, и у него есть эти братья и сестры.

    Теперь вопрос в том, сколько братьев у Алины. Алина — одна из сестер Пети, поэтому она девочка. Чтобы узнать, сколько братьев у Алины, мне нужно подумать о том, кто ее братья.

    Упоминается, что у Пети два брата: Сергей и Михаил. Итак, с точки зрения Пети, у него есть два брата, кроме него самого, итого три брата, включая его самого. Но подождите, а Петя включен в список, когда мы говорим о братьях Алины?

    Нет, потому что Алина — сестра Пети, и мы смотрим с точки зрения Алины. Итак, с точки зрения Алины, ее братья — это другие братья и сестры мужского пола в семье.

    Учитывая, что у Пети есть два брата, Сергей и Михаил, это также будут братья Алины. Итак, у Алины есть два брата: Сергей и Михаил.

    Но подождите минутку, раньше я думала включить Петю в подсчет, но теперь я его исключаю, потому что мы смотрим с точки зрения Алины. Таким образом, общее количество братьев у Алины должно быть два.

    Однако иногда люди могут включать самого человека при подсчете братьев и сестер, но в этом случае, поскольку мы сосредоточены на братьях Алины, мы не включаем ее в подсчет. Она сестра, и мы ищем ее братьев.

    Итак, подведем итог:

    - Алина — сестра.
    - У нее есть два брата: Сергей и Михаил.

    Следовательно, у Алины есть два брата.
    </think>

    У Алины есть два брата: Сергей и Михаил.

    **Пошаговое объяснение:**

    1. **Определите братьев и сестер:**
    - Сестры: Алина, Марина, Катя (три сестры).
    - Братья: Петя, Сергей, Михаил (три брата).

    2. **Определите точку зрения Алины:**
    - Алина — сестра, поэтому она считает Петю, Сергея и Михаила своими братьями.

    3. **Посчитайте братьев:**
    - Петя — брат.
    - Сергей — брат.
    - Михаил — брат.
    - Всего: 3 брата.

    **Ответ:** У Алины три брата.
    Ответ написан
    6 комментариев
  • Есть хорошая библиотека для работы с claude через api?

    @rPman
    Для начала у antropic есть рабочее пространство https://console.anthropic.com/ где можно работать через их api

    Еще можно воспользоваться сторонними провайдерами, я например использую openrouter.ai (не без глюков но доступна даже оплата в криптовалюте, но к сожалению нужен vpn/прокси), они предоставляют доступ к куче моделей, включая труднодоступные o1, а так же разных провайдеров, и все в одном месте, плюс свой api (кажется дублирует openai)

    Практически во все популярные IDE среды для разработки есть плагины для использования ИИ по разработке... достаточно указать api key (и иногда указать url, так как можно использовать локальные) и получить результат сразу в редакторе.

    p.s. Первым делом топ ии модели, особенно openai и anthropic claude sonnet их разработчики обучают на программирование, и в т.ч. на работу с их api (openai даже переобучивает, что проблемы создает), ты можешь спокойно попросить их написать необходимые скрипты по твоей логике и будет у тебя свой чат или что тебе нужно.

    Например, мне нужно было что бы мои вопросы проходили через чат с моделью, где я задаю типичные шаблонные вопросы, получаю ответ и продолжаю чат дальше,.. игнорируя промежуточные ответы, выводить только последний (это я пилил до появления рассуждающих o1), это приложение gpt4o написал за пару промптов и несколько минимальных исправлений.
    Ответ написан
  • Возможно ли точно вычислить степень влияния ИИ в книгах и кино?

    @rPman
    К сожалению универсального ответа нет.

    Затраты на создание адекватного детектера генератора ИИ сравнимы с созданием этого ИИ. Но хуже того, как только такой верификатор появится в доступе, на нем сразу начнут обучать ИИ что бы он его обходил, это не сложно, так как обучающая выборка будет крохотной - тысячи.. десятки тысяч статей,.. от этого не защититься.
    Ответ написан
    Комментировать
  • Возможно ли использовать ИИ для сравнения текста?

    @rPman
    Юрий, так как имеющейся информации для принятия решения недостаточно (не важно автоматически или вручную), особенно если у вас ТОЛЬКО название, необходимо лезть в интернет, и вот тут то и начинаются проблемы автоматизации.

    Реализовать желаемое реально, с каждым дополнительным процентом данных, которые это решение будет реализовывать автоматически, сложность будет расти экспоненциально, но с другой стороны, это решение поможет вашей компании в будущем, если вам требуется выверенный список товаров.

    До появления gpt ИИ, такую задачу решать пришлось бы буквально для каждого сайта источника информации, где то загружать базу вручную, преобразовывать в вид, понятный твоей системе, а где то писать парсер или пользоваться ее поисковой системой (тупой пример - вбиваешь название в поиск по крупному каталогу или магазину, загружаешь описания, и уже на их основе что то делаешь). Теперь же программист может поиграть с промптом и используя ИИ пытаться анализировать веб сайты автоматически без разработки для каждого своего парсера, но в любом случае просто не будет.
    Ответ написан
    1 комментарий
  • Какие ИИ можно использовать для автоматического заполнения таблиц используя информацию с сайта продавца?

    @rPman
    Современные ИИ не подходят для сбора информации напрямую (типа даешь картинку, пишешь запрос,..), так как ответ будет с 70% вероятностью верным, а 30% нет (пропуски и фальшивое срабатывание)... но попытки такие (работающие с неструктурированной информацией) системы собрать само собой есть, не уверен, вроде бы топовые с 90% вероятностью проходят тестовые выборки.

    Твоя задача должна решаться 'по старинке', собираешь список сайтов, для каждого сайта пишешь парсер, собранные данные приводишь к виду с единой структурой... и не забываешь в договоре с разработчиком пояснить, что сайты меняются, парсеры требуют поддержки и правки соответственно этим изменениям. Возможно каждый парсер простой, но когда у тебя их десятки, потребуется какая то система автоматического их контроля работоспособности,.. в общем не просто.
    Ответ написан
    3 комментария
  • Как получить бесплатные вычислительные мощности для исследований?

    @rPman
    Университеты могут предлагать мощности своим сотрудникам, при условии что будет публикация с аффиляцией этого университета.

    Ты как бы покупаешь мощности за то что университет подмажется к твоим достижениям... Но нужно понимать что могут совсем уж кабальные условия выставить.

    Помню ТГУ предлагал свои мощности (там уже слабый суперкомп, вам не подойдёт) но права на результат универу нужно было отдавать

    P s. Глупо гадать, обзвонит университеты, поспрашивайте
    Ответ написан
    Комментировать
  • Какую и как дообучить модель машинного перевода?

    @rPman
    Не разбираюсь в вопросе, но когда читал про это, самое простое что можно сделать, взять обученную сетку у фейсбука, и изучить документацию по повторению их результата но уже на своих данных
    https://github.com/facebookresearch/fairseq/tree/m...
    Ответ написан
    5 комментариев
  • С помощью какой AI модели можно локально обработать аудио-файлы (русский голос)?

    @rPman
    whisper от openai (apache2.0 лицензия) и его производные, на текущий момент лучшая модель общего назначения. Лицензия позволяет пользоваться этим но при включении его в тиражируемые продукты, лицензия на исходный код этих производных продуктов так же должен быть открыт.

    Так же модели по работе со звуком есть у всех топовых компаний, например у мозиллы deepspeech и у фейсбука, и у гугла, и у китайского qwen и т.п. но под вопросом качество русского языка, полистай, осторожно тут все в кучу свалено, не только прямая трансляция но и к примеру токенизаторы, векторизаторы и т.п.
    Ответ написан
    Комментировать
  • Нейросеть для обработки фото?

    @rPman
    либо ты берешь готовый функционал, ограниченный его разработчиком, либо используешь саму сетку напрямую, но придется делать лишние телодвижения (по факту программировать)

    Лучший из доступных это comifyui, отвратительный интерфейс но зато максимальный функционал, workflow это по факту программа в GUI в виде графа, готовые с некоторых сайтов инструкций можно получить буквально перетянув изображение с примером в окно программы, и получишь пример, в котором максимум подправить имя файла с весами нейронки (а вот найти и загрузить которые придется вручную). Есть огромное количество плагинов, которые проще устанавливать не вручную а с помощью comifyui-manager

    Следующий, более user frendly - stable diffusion webgui, очень удобный, функциональный, но весь функционал заморожен тем что предлагает сам gui или его расширения.

    Твоя задача не очень понятна, но могу предположить что тебе нужен режим inpaint, который позволяет указав часть изображения маской, дорисовывать его, очень мало открытых нейронок, дают такой функционал, собственно из доступных только stable diffusion 1.5 inpaint (догадываюсь что спецы могут сделать и другие, в т.ч. с lora но нужно копать эту тему очень глубоко), с соответствующим качеством
    Ответ написан
    Комментировать
  • Возможен ли запуск character ai на домашнем пк?

    @rPman
    Llama31-8b можно запустить на видеокарте nvidia 12..16gb с отличной скоростью, контекстное окно 128к токенов, характер и прочее можешь описать в стартовом промпте. На cpu так же работает с помощью llama.cpp.

    Такую сеть можно за разумные деньги тюнить под свои задачи.

    Есть ещё китайская qwen, у нее неплохие характеристики.

    Старшие версии llama31-70b и qwen близки а топу, но требуют много оперативной памяти, с использованием квантизации 64..96гб ram на скорости 1-2 токена в секунду можно решить сложные интеллектуальные задачи, например адекватно допридумывать рассказы...
    Ответ написан
    2 комментария
  • Возможно ли использовать модель LLAMA-405B на обычном железе 64GB + 8GB?

    @rPman
    Да, уже считал, и это действительно реально, с относительно небольшими затратами (16-20т.р.) если тебя устроит скорость исполнения в 15-30 секунд на токен (на твоем железе llama31-70b на процессоре и 64гб оперативке будет работать токен в 1-1.5 секунд).

    Необходимо собрать самый дешевый pcie nvme ssd программный raid0, купив контроллер pcie-x16 3.0 или 4.0 из четырех разъемов nvme либо четыре pcie-4x дешевых 3.0 и закупить самые дешевые nvme ssd диски от 128гб (со скоростями чтения от 2гбайт/сек).

    Затем собрать из них raid0 с чередованием (win/linux это поддерживают) и разместить на нем gguf файл. llama.cpp поддерживает загрузку файла с весами с диска, без выделения оперативной памяти (но она нужна на контекстное окно, в зависимости от его размера это будут десятки гигабайт). Файл будет считываться по кругу целиком, по разу на токен, а значит скорость будет определяться именно этим. 2гб/с*4 диска = 8гб/с, 256гб 4бит квантизация будет считываться за 32 секунды.

    Есть еще ограничения в скорости исполнения из-за процессора, но по уму, если бы была оперативная память то типовой десктопный процессор работал бы на скорости 15-20 секунд на токен.
    Ответ написан
    7 комментариев
  • Как предсказать отработку сетапа на бирже?

    @rPman
    Есть два глобальных подхода к автоматизации решения задач:
    1. если задачу может решить человек, то задача формализуется, эмпирически (т.е. сам человек, своими размышлениями и экспериментами) формулируются правила, чаще всего переводом в математику, затем они программируются на языках программирования
    2. берут какую то универсальную формулу, которая (в теории может описывать любой) описывает требуемую задачу, и каким-либо алгоритмом подбираются ее параметры. Есть кстати алгоритмы, которые перебирают не только параметры но и саму логику формулы.
    Одна из самых известных математических формул, которая может описать любой процесс в реальности (с некоторым приближением естественно) - это нейронные сети (есть даже универсальная теорема аппроксимации, показывающая крутость многослойного перцептрона).

    Если пользоваться вторым подходом, это может потребовать 'бесконечного' объема ресурсов или 'бесконечного' количества обучающих данных, что само собой не радует, особенно когда львиная доля ресурсов тратится на подзадачу, которая первым подходом уже решена и в сравнении не требует ресурсов вообще.

    Если решать задачу вторым подходом, ты можешь скармливать нейросети сырые данные OHLCV, но помним о нормализации, которая при неправильном выборе метода может уже на старте сделать задачу не решаемой за разумный срок (как только реальность выйдет за границы цены в которой была раньше, нейронная сеть сломается).

    Поэтому подумай, а как человек классифицирует данные? в каком виде он на них смотрит? в виде графика на котором он рисует линии? вот и представь данные как такой график (нормализуй не от min/max датасета, а текущего фрейма, то что идет на вход нейросети, если что этот подход ничего не гарантирует но как минимум сеть будет видеть то же что и человек).

    Есть рекомендация, исключать из обучающих данных атрибуты, которые сильно корелированы, они считаются бесполезными... но важно, какие именно типы данных будут исключены. Индикаторы это некий вид нормализации данных, наличие которых может оказать большое влияние на поиск решения быстрее (т.е. вместо исходных данных, обучающая выборка пусть состоит из различных индикаторов или вместе с ними)

    Типичный 'аналитик' начинает рисовать на графиках какие то кривые, обычно по какому то не сложному алгоритму, вот и автоматизируй этот процесс не ИИ алгоритмами, и добавь результат в обучающую выборку, возможно это поможет?

    p.s. повторюсь, знание выстраданое многими - бесконечно долго на спекулятивном рынке зарабатывают только обслуга (лопаты продавать эффективнее чем добывать золото), и все места уже заняты и 'охраняются' законодательно (сами биржи и держатели эмиссии, т.е. банки для валют и эмитиенты для ценных бумаг). Все остальные это корм, который кормят крошками чтобы привлечь побольше капитала и забрать все.

    И даже если закрыть глаза на манипуляции (в криптовалютах одно время было так что они были слабы) и рассматривать рынок как честный, каждый трейдер торгует против всех остальных, какую бы ты стратегию ты не разработал, долго она не проработает, потому что все изменится и придется разрабатывать эту стратегию заново уже под новые реалии... но данных то на эти реалии у тебя еще нет?!

    p.p.s. на спекулятивном рынке можно зарабатывать на постоянной, это тяжелый труд, высокое психо-эмоциональное давление, огромные риски... и речь идет о считанных десятках процентов годовых.
    Ответ написан
    1 комментарий
  • Использовать нейросеть для обучения на своих данных. Какую сетку лучше выбрать и где это сделать в облаке или на компе?

    @rPman
    Нейросети в первую очередь требуют данные, чем больше тем лучше. Во вторых эти данные должны быть качественным взвешенными, иначе редкие но важные события будет затменены частыми но обычными, это первая проблема, на которой практически все обламываются и скорее всего типовые решения не позволят получить результат.

    Ещё момент, нужно четко понимать, что именно ты ищешь и какую задачу ставишь. Верхнеуровневая задача - заработать денег возможно формулируется просто, но практически не реализуется на практике (или потребует неадекватное количество ресурсов), а тупое прогнозирование следующей цены может не дать ожидаемого результата. Начни сначала что то по проще, например прогнозируй ликвидность и разработку инструменты для оценки своей стратегии, решая эту задачу ты скорее всего начнёшь понимать величину проблемы.

    Использовать transformer возможно очень правильно (attention по уму для временных рядов подходит), но точно готовых решений не найти и придется с нуля решать все самому. Один токенизатор чего стоит.

    p.s. данные - это главное, не только количество но и их уникальность (разный тип данных а не только их объем). На рынке спекулятивной торговли все не могут победить, и действует очень сильная конкуренция, если решение простое то его уже нашли и эксплуатируют, а значит твое решение должно быть лучше... теперь этот принцип продли во времени и дай участниками огромные ресурсы... каждый новый участник станет кормом для остальных
    Ответ написан
  • Как поставить правильные инструкции для GPT API для обхода цензуры?

    @rPman
    Полистай идеи в старых jailbreak типа таких (лучше погугли, можно найти больше)

    Но главное, не надейся что такие промпты будут долго работать, с той стороны не идиоты сидят, и промпты пользователей анализируют максимально тщательно, так как эта информация наиценнейший актив, позволяющий значимо улучшать модели.

    p.s. ты пробовал открытые аналоги, ты пробовал уйти от изображений к текстовому описанию, который получаешь сторонними средствами (недавно вышла facebook sam - модель для сегментирования объектов на изображении, можно разобрать, каждое по отдельности проанализировать, и серией запросов набрать описание)
    Ответ написан
    Комментировать
  • Как определить область в потоке видео и среагировать на обнаружение?

    @rPman
    Если в этом месте других сообщений не выводится, то все решается простой проверкой цвета нескольких пикселов, в твоем случае их будет 2-3шт, для надежности смотри ну 5.

    Подбери такие пикселы, чтобы их комбинация белая/не белая была уникальной для каждого случая... цвет пиксела бери 'на интервале'

    Твоя задача вообще решается анализом небольшого количества пикселов, потому что интересующие тебя объекты имеют не меняющийся цвет.

    p.s. вот если бы вместо белого цвета использовался постоянно меняющийся, было бы сложнее, но все равно решаемо, просто больше пикселов брать и сравнивать цвет с ними
    Ответ написан