Задать вопрос
  • Куда двигаться дальше, чтобы создать web приложение?

    @rPman
    у меня очень важный вопрос, почему выбрали java в качестве бакэнд сервера вашего первого веб приложения?
  • Как запретить скачивание файл по прямой ссылке?

    @rPman
    Пожалуйста не путаете людей, про security, плашка куратора придает вашим словам вес.
  • Как запретить скачивание файл по прямой ссылке?

    @rPman
    Так нельзя дать доступ до конкретного файла, только до папки целиком
    никто не мешает создавать симлинк на файл, правда когда именно это делать вопрос, например ссылка на скачивание это модуль проверки наличия этого симлинка и создания его по необходимости.

    Формально симлинк в файловой системе тут выступает базой данных для выдачи прав, достаточно эффективный (все современные ос имеют логарифмическую трудоемкость по поиску файлов в каталоге, возможны проблемы с миллионом файлов при обслуживании типа резервная копия, но и тут решений тьма, от использования адекватных систем резервного копирования типа zfs/btrfs snapshot send до использования подкаталогов для хранения симлинков)

    Остальные коментарии - смешно.

    Про security through obscurity - нет, идентификатор сессии выступает токеном авторизации, любой другой способ авторизации так или иначе будет содержать токены, которые будут храниться в сессии браузера пользователя.

    При использовании modrewrite ссылка никак не будет содержать этот идентификатор..

    Смена прав доступа - это удаление симлинка. Еще раз, ты все то же самое будешь делать в любой другой базе данных, то что реляционные все уже умеют тригеры и позволяют это все красиво описать - всего лишь синтаксический сахар.
  • Как запретить скачивание файл по прямой ссылке?

    @rPman
    ThunderCat, симлинки соответствуют активным сессиям, никто в здравом уме не делает их вечными.
    а вот городить свой способ правильной отдачи файла с докачкой я бы не советовал, любая реализация на php будет грузить сервер на порядок выше нативного веб сервера.

    upd. точно помню можно для mod_rewrite написать правило, которое либо из кук либо из переменной окружения будет вытаскивать идентификатор сессии и подставлять его в ссылку автоматически, тогда для пользователя ссылка будет выглядеть без идентификатора

    даже не представляю, проще и красивее решения.
  • Как работает информационная розетка?

    @rPman
    Drno, у меня linux nfs, накладных расходов на мелкие файлы не так много как в windows, а так да, случайный доступ убивает скорость hdd, но я использую их только для хранения именно больших файлов
  • Как работает информационная розетка?

    @rPman
    Drno, нет, 6шт hdd в raid5 и один одиночный, и тот дает 200мб/с
  • Как работает информационная розетка?

    @rPman
    Drno, это тоже но да, очень грустно что мой NAS работает не на максимуме скорости hdd raid (от 200 до 800мбайт/с а гигабит дает в лучшем случае 110мб/с)
  • Как работает информационная розетка?

    @rPman
    Намекну - 100мбит это 10мбайт в секунду, для локальной сети этого катастрофически мало.

    мне тут гигабита не хватает, просматриваю на 2.5гб и 5гб...
    По уму можно найти 500мбит розетки, но это дороже
  • Как работает информационная розетка?

    @rPman
    Минимум две, с одной стороны ты вставляешь провод провайдера или подключении через роутер, с другой стороны комп.

    Под уму эти розетки powerline уже больше чем стимуляция кабеля, они умеют быть роутером сами и даже умеют wifi, смотри характеристики.

    И да, работать это будет из коробки, но не забывай про фильтр в электрощитке (не нашел информации но электрики должны знать, стандарт homeplug av) иначе если сосед в доме тоже их использует, будете друг другу мешать
  • Как попасть в GRUB меню(загрузчик)?

    @rPman
    Скорее всего что при смене пароля ошиблись.

    С помощью chroot -> passwd имя_пользователя меняй пароль.
  • Не получается создать Google аккаунт, что делать?

    @rPman
    Danil Privedentsev, я про регион оператора сотовой связи
    p.s. год назад была похожая ситуация, не приходили сообщения восстановления доступа к аккаунту, потом починилось 'само'.

    было уже тогда ясно что подобная нестабильность с нами на долго, и завязывать инфраструктуру на это не рекомендуется.
  • Не получается создать Google аккаунт, что делать?

    @rPman
    номер какого оператора сотовой связи используешь?
    постукраина?
  • Почему может зависать ПК?

    @rPman
    У меня очень похоже подвисал очень старый комп, причина оказалась в блоке питания.

    Твой случай не обязательно такой же.

    Для выявления нужно начинать с установки числу ос (можно на другой диск) без приложений и попытке выдавать то же подвисание, иначе это покажет что проблема в софте.

    Выявлять причину железную сложно, нужно по очереди проверить каждую комплектующую в заведомо рабочем компьютере.
  • Из-за чего могут лагать интерфейсы Windows 11?

    @rPman
    Драйвера установлены на видео карту?
    Видеокарта случайно не была в жёстком майнинге или БУ?
  • Какие могут быть возможные причины изменения ответа LLM на один и тот же запрос?

    @rPman
    Докину, у нейронок, любых, есть проблема - переобучаемость, когда вместо выявления закономерностей обучающего датасета, она тупо 'запоминает' фактические данные, собственно главный критерий остановки обучения нейронки - сравнение метрик на обучающей и тоестовых выборках, как только качество у первой растет без роста на второй, так пора останавливаться.

    Так вот для llm-ок переобученность в локальном смысле (в пределах какого то одного 'признака'/'знания') модели может оказаться проще запомнить факт а не 'понять' его (т.е. не сможет сформулировать для себя применимость этого знания), и скорее всего это даже чаще всего и происходит, когда то это идет на пользу (когда нейронка умудряется цитаты из вики выдавать, особенно это полезно при паттерне запросов think step by step, тогда вываливаемые справочные данные работают как встроенный RAG, улучшая результат) но чаще просто занимает веса и отнимает ресурсы при обучении.

    Такое запоминание можно наверное считать записью в базе данных, но с очень очень большими оговорками, больше как аналогия.
  • Какие могут быть возможные причины изменения ответа LLM на один и тот же запрос?

    @rPman
    @Maksim_64
    LLM осуществляет поиск информации в интернете
    никаким боком тут этого нет, поверх llm есть несколько продуктов, которые с помощью RAG докидывают в контекстное окно потенциально полезную информацию (типа макрософтовский bing copilot в chatgpt и как самостоятельный продукт, или боты coze, плюс совсем отстойные реализации у других, типа сберовского гигачата) и все это делают очень отвратительно, скорее всего из-за экономии денег (качественная реализация получится дорогой)

    При обучении использовалась информация из интернета, собственно это и есть то что сделано llm-ки такими хорошими - обучение на мусорных данных без их разметки. Дальше там идет генерация этих данных и конечно технологии типа RLHF, когда уже обученная сетка тюнится на серии вопрос-ответ (дает хороший буст в качестве но с кучей ограничений - информации этот способ не добавляет), в этом случае качество датасета вопросов кстати наиважнейшее, и его сбор становится очень дорогим, на столько что есть кому заплатить таким проектам как lmsys, или то что дало возможность openai продвинуться вперед с gpt35 до gpt4, за счет сотни миллионов пользователей и их вопросов.

    Сам finetuning моделей не добавляет информации, точнее не так, добавление новой информации ломает модель и делает ее хуже. Правильное дообучение должно содержать очень строго выверенную часть изначального обучающего датасета (в идеале всю) и даже это не гарантирует качественного результата. У нейронок есть отвратительная способность сваливаться в ловушки медленного переобучения (любых - это особенность алгоритмов обучения), когда новая информация требует на порядки больше времени обучения чем если бы та же информация была добавлена с самого начала.

    llm-ки не ищут информацию внутри себя, это абсурд, я столько людей видел пытающихся с пеной у рта отстаивать эту бессмысленную идею без каких либо шансов и логики типа llm это БД. llm-ки строят внутри модель знаний и закономерностей, которые присутствовали в обучающей выборке, примерно как человеческая память, на любую информацию идет попытка сохранить ее не как факты, а как алгоритм ее создания (через структуры на основе весов в нескольких рядом стоящих слоях). Собственно вопросом является, когда нейронка пытается принимать решения на основе запомненной информации, она для этого пользуется новыми структурами (грубо говоря дважды запомнила информацию, один раз как якобы факт а другой раз для принятия решения) или строит взаимные структуры... кажется mistral публиковали работу на тему поиска тех самых весов, отвечающих за конкретные знания.

    Новые версии llm-ок это не только обновление обучающего датасета, но и алгоритм (pipeline) обучения. Там уже давно не упирается все в загрузил обучающие данные, нажал кнопку, получил готовую модель... нет там последовательный процесс, с пересозданием модели, с правкой алгоритмов, структуры, токенизера и кучи всего что нам на публично не известно.